[go: up one dir, main page]

WO2017134973A1 - 音響出力装置、音響出力方法、プログラム、音響システム - Google Patents

音響出力装置、音響出力方法、プログラム、音響システム Download PDF

Info

Publication number
WO2017134973A1
WO2017134973A1 PCT/JP2017/000070 JP2017000070W WO2017134973A1 WO 2017134973 A1 WO2017134973 A1 WO 2017134973A1 JP 2017000070 W JP2017000070 W JP 2017000070W WO 2017134973 A1 WO2017134973 A1 WO 2017134973A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
unit
acoustic
audio signal
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/000070
Other languages
English (en)
French (fr)
Inventor
宏平 浅田
剛 五十嵐
耕治 投野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017565437A priority Critical patent/JP7047383B2/ja
Priority to US16/069,631 priority patent/US10685641B2/en
Priority to EP19200583.3A priority patent/EP3621318B1/en
Priority to EP17747137.2A priority patent/EP3413590B1/en
Priority to CN201780008155.1A priority patent/CN108605193B/zh
Publication of WO2017134973A1 publication Critical patent/WO2017134973A1/ja
Anticipated expiration legal-status Critical
Priority to US16/791,083 priority patent/US11037544B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • G10K15/10Arrangements for producing a reverberation or echo sound using time-delay networks comprising electromechanical or electro-acoustic devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/34Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by using a single transducer with sound reflecting, diffracting, directing or guiding means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/34Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by using a single transducer with sound reflecting, diffracting, directing or guiding means
    • H04R1/345Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by using a single transducer with sound reflecting, diffracting, directing or guiding means for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/09Non-occlusive ear tips, i.e. leaving the ear canal open, for both custom and non-custom tips
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present disclosure relates to a sound output device, a sound output method, a program, and a sound system.
  • Patent Document 1 a technique for reproducing reverberation due to an impulse response by measuring an impulse response under a predetermined environment and convolving an input signal with the obtained impulse response is known. It has been.
  • Patent Document 1 convolves an impulse response acquired by measurement in advance with a digital audio signal to which reverberation is desired to be added. For this reason, the technique described in Patent Document 1 does not add a spatial simulation transfer function process (for example, reverberation / reverb) that simulates a desired space to a sound acquired in real time. Not assumed.
  • a spatial simulation transfer function process for example, reverberation / reverb
  • the space simulation transfer function process is referred to as “reverb process” for simplicity.
  • the space simulation transfer function process is referred to as “reverb process” for simplicity.
  • the space simulation transfer function process is referred to as “reverb process” for simplicity.
  • the transfer function between two points in space is used as a base for the purpose of simulating space, Expressed as reverb processing.
  • a sound acquisition unit that acquires a sound signal based on surrounding sound
  • a reverb processing unit that performs reverb processing on the sound signal
  • a listener who listens to sound based on the sound signal that has been subjected to the reverb processing
  • an acoustic output device that outputs in the vicinity of the ear.
  • means for acquiring a sound signal based on ambient sound means for performing reverberation processing on the sound signal, and sound generated by the sound signal subjected to the reverberation processing are heard by the listener's ear.
  • a program for causing the computer to function as a means for outputting in the vicinity means for acquiring a sound signal based on ambient sound, means for performing reverberation processing on the sound signal, and sound generated by the sound signal subjected to the reverberation processing are heard by the listener's ear.
  • a program for causing the computer to function as a means for outputting in the vicinity means for acquiring a sound signal based on ambient sound, means for performing reverberation processing on the sound signal, and sound generated by the sound signal subjected to the reverberation processing are heard by the listener's ear.
  • the acoustic acquisition part which acquires the acoustic environment information showing the surrounding acoustic environment, and the acoustic environment information showing the surrounding acoustic environment of the second acoustic output device which is the communication partner
  • An acoustic environment information acquisition unit acquired from an acoustic output device, a reverberation processing unit that performs reverberation processing on the audio signal acquired by the acoustic acquisition unit according to the acoustic environment information, and the reverb processing
  • a first sound output device including a sound output unit that outputs sound based on a sound signal to a listener's ear; a sound acquisition unit that acquires sound environment information representing a surrounding sound environment; and the communication partner.
  • An acoustic environment information acquisition unit that acquires acoustic environment information that represents an acoustic environment around one acoustic output device, and performs reverberation processing on the audio signal acquired by the acoustic acquisition unit according to the acoustic environment information Riva Comprising a blanking unit, and a second audio output device comprising: a sound output unit, the output to the listener's ear the sound by the sound reverberated signal processing is performed, the sound system is provided.
  • a desired reverberation is added to a sound acquired in real time, and a listener can listen.
  • the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
  • FIG. 5 is a schematic diagram showing a user wearing a sound output device in the system shown in FIG. 4. It is a schematic diagram which shows the processing system which performs the user experience of the sound after a reverberation process using normal "sealed type" headphones, such as a canal type, and a microphone. In the case of FIG.
  • FIG. 6 it is a schematic diagram which shows the response image of the sound pressure on the eardrum when the sound emitted from the sound source is an impulse and the spatial transmission is flat.
  • FIG. 8 is a schematic diagram illustrating a case where an impulse response IR is used in the same sound field environment as in FIGS. 6 and 7 using an “ear hole open type” sound output device.
  • FIG. 9 is a schematic diagram showing a sound pressure response image on the eardrum when the sound emitted from the sound source is an impulse and the spatial transmission is flat in the case of FIG. 8. It is a schematic diagram which shows the example which raised the realistic presence more by application of the reverb process. It is a schematic diagram which shows the example which combined the HMD display based on the video content.
  • FIG. 1 and FIG.2 is a schematic diagram which shows the structure of the acoustic output device 100 which concerns on one Embodiment of this indication.
  • FIG. 1 is a front view of the sound output device 100
  • FIG. 2 is a perspective view of the sound output device 100 as viewed from the left side.
  • the sound output device 100 shown in FIGS. 1 and 2 is configured to be worn on the left ear, but the sound output device (not shown) for wearing the right ear is configured symmetrically with respect to this.
  • the 1 and 2 includes a sound generator (sound output unit) 110 that generates sound, a sound guide unit 120 that takes in sound generated from the sound generator 110 from one end 121, and a sound guide.
  • a holding unit 130 that holds the unit 120 near the other end 122 is provided.
  • the sound guide portion 120 is made of a hollow tube having an inner diameter of 1 to 5 mm, and both ends thereof are open ends.
  • One end 121 of the sound guiding unit 120 is an acoustic input hole for the sound generated from the acoustic generating unit 110, and the other end 122 is an acoustic output hole. Therefore, when the one end 121 is attached to the sound generation unit 110, the sound guide unit 120 is open on one side.
  • the holding unit 130 engages with the vicinity of the entrance of the ear canal (for example, a notch between the ears), so that the sound output hole of the other end 122 of the sound guide unit 120 faces the back side of the ear canal.
  • the guiding portion 120 is supported near the other end 122.
  • the outer diameter of at least the vicinity of the other end 122 of the sound guide portion 120 is formed to be smaller than the inner diameter of the ear hole. Therefore, even if the other end 122 of the sound guide part 120 is held near the entrance of the ear canal by the holding part 130, the ear hole of the listener is not blocked. That is, the ear hole is open.
  • the sound output device 100 can be referred to as an “ear hole open type”.
  • the holding unit 130 includes an opening 131 that opens the ear canal entrance (ear hole) to the outside world even when the sound guide unit 120 is held.
  • the holding portion 130 is a ring-shaped structure, and is connected to the vicinity of the other end 122 of the sound guide portion 120 only by a rod-shaped support member 132. All other parts of the region are openings 131.
  • the holding portion 130 is not limited to the ring-shaped structure, and may have any shape that can support the other end 122 of the sound guide portion 120 as long as it has a hollow structure.
  • the air vibration is propagated, and the other end 122 held near the entrance of the ear canal by the holding unit 130. Radiates to the ear canal and transmits to the eardrum.
  • the holding unit 130 that holds the vicinity of the other end 122 of the sound guide unit 120 includes the opening 131 that opens the entrance (ear hole) of the ear canal to the outside. Therefore, the ear hole of the listener is not blocked even when the sound output device 100 is worn. The listener can sufficiently listen to the ambient sound through the opening 131 while wearing the sound output device 100 and listening to the sound output from the sound generation unit 110.
  • the sound output device 100 opens the ear hole, the sound generated from the sound generator 100 (reproduced sound) can be suppressed from leaking to the outside. Since the other end 122 of the sound guide part 120 is attached so as to face in the vicinity of the entrance of the ear canal and radiates the generated air vibrations near the eardrum, it is sufficient to reduce the output of the sound output part 100. This is because sound quality can be obtained.
  • FIG. 3 shows a state in which the acoustic output device 100 with an open ear hole outputs sound waves to the listener's ear. Air vibration is radiated from the other end 122 of the sound guide portion 120 toward the inside of the ear canal.
  • the ear canal 300 is a hole that begins at the ear canal entrance 301 and ends inside the eardrum 302 and is generally approximately 25-30 mm long.
  • the external auditory canal 300 is a cylindrical closed space.
  • the air vibration radiated from the other end 122 of the acoustic unit 120 toward the back of the ear canal 300 propagates to the eardrum 302 with directivity as indicated by reference numeral 311.
  • the sensitivity (gain) in the low range is particularly improved.
  • the outside of the ear canal 300 that is, the outside world is an open space.
  • the air vibration radiated out of the ear canal 300 from the other end 122 of the sound guide portion 120 has no directivity in the outside world and is rapidly attenuated as indicated by reference numeral 312.
  • the tubular sound guide portion 120 has a bent shape that is folded back from the back side to the front side of the ear hole at the intermediate portion.
  • the bent portion is a pinch portion 123 having an open / close structure, and can generate a pinch force to pinch the earlobe, which will be described in detail later.
  • the sound guide portion 120 further includes a deformable portion 124 between the other end 122 disposed near the entrance of the ear canal and the bent pinch portion 123.
  • the deformation portion 124 is deformed when an excessive external force is applied, and prevents the other end 122 of the sound guide portion 120 from entering the depth of the ear canal more than necessary.
  • the listener can naturally listen to the ambient sound while the sound output device 100 is being worn. Therefore, it is possible to normally use human functions that depend on auditory characteristics such as grasping space, perception of danger, conversation, and grasping subtle nuances during conversation.
  • the sound output device 100 can be regarded as acoustically transparent by surrounding the ear hole with a structure for reproduction so that the surrounding sound is not transmitted. Similarly, the surrounding sound can be heard as it is, and the target sound information and music can be simultaneously reproduced through the pipe or duct shape, so that both sounds can be heard.
  • an earphone device In the case of an earphone device that is commonly used at present, it is basically a sealed structure that closes the ear canal, so the sound that you generate and your own mastication sound are compared to when the ear canal is open. Since it sounds differently, there is a sense of incongruity and often causes discomfort for the user. This is thought to be because spontaneous sounds and mastication sounds are radiated to the sealed external auditory canal through bones and meat, so that the sound passes through the eardrum in a state where the low range is enhanced. Since such a phenomenon does not occur in the acoustic output device 100, it is possible to enjoy a normal conversation while listening to the target audio information.
  • the user can transmit the presented voice or music to the vicinity of the ear canal through the tubular sound guide unit 120 while passing the surrounding sound as it is as a sound wave. Can experience voice and music while listening to the surrounding sounds.
  • FIG. 4 is a schematic diagram showing a basic system of the present disclosure.
  • microphones (microphones (sound acquisition units)) 400 are mounted on the left and right sound output devices 100.
  • the microphone signal output from the microphone 400 is amplified by a microphone amplifier / ADC 402, subjected to AD conversion, and then subjected to DSP processing (reverb processing) by a DSP (or MPU) 404, and then to a DAC / amplifier (or digital amplifier) 406.
  • sound is generated from the sound generation unit 110, and sound can be heard in the user's ear via the sound guide unit 120.
  • FIG. 4 is a schematic diagram showing a basic system of the present disclosure.
  • microphones (microphones (sound acquisition units)) 400 are mounted on the left and right sound output devices 100.
  • the microphone signal output from the microphone 400 is amplified by a microphone amplifier / ADC 402, subjected to AD conversion, and
  • microphones 400 are attached independently on the left and right, and the microphone signal is independently reverberated on each side.
  • the components such as the microphone amplifier / ADC 402, DSP 404, DAC / amplifier 406, and the like can be provided in the sound generation unit 110 of the sound output device 100. 4 can be configured by a circuit (hardware) or a central processing unit such as a CPU and a program (software) for causing it to function.
  • FIG. 5 is a schematic diagram showing a user wearing the sound output device 100 in the system shown in FIG.
  • the ambient sound that directly enters the ear canal and the sound that is picked up by the microphone 400 and subjected to signal processing and enters the sound guide unit 120 are spatially separated in the ear canal path. Since they are acoustically added, both synthesized sounds reach the eardrum, and the sound field and space are recognized based on the synthesized sounds.
  • the DSP 404 functions as a reverberation processing unit (reverberation processing unit) that performs reverberation processing on the microphone signal.
  • reverberation processing unit reverberation processing unit
  • the so-called “sampling reverb” is a realistic effect that convolves the impulse response between two points measured in an actual location at any point (the operation in the frequency domain is equivalent to the multiplication of the transfer function).
  • a filter that approximates part or all of this with IIR (Infinite Impulse Response) may be used.
  • IIR Intelligent Impulse Response
  • Such an impulse response can also be obtained by simulation.
  • the convolution can be performed by the same method as in Patent Document 1 described above, and an FIR digital filter or a convolver can be used. At this time, it is possible to have filter coefficients for a plurality of reverbs, and the user can arbitrarily select them.
  • the sound field can be experienced through an impulse response (IR) measured or simulated in advance.
  • IR impulse response
  • FIG. 6 and FIG. 7 a processing system for performing a user experience using a normal “sealed” headphone 500 such as a canal type and a microphone 400 will be described.
  • the configuration of the headphone 500 shown in FIG. 6 is the same as that of the sound output device 100 shown in FIG. 4 except that it is “sealed”, and a microphone 400 is provided in the vicinity of the left and right headphones 500.
  • the sealed headphone 500 is assumed to have high sound insulation.
  • an impulse response IR as shown in FIG. 6 has been measured in order to simulate a specific sound field space. As shown in FIG.
  • the sound generated by the sound source 600 is collected by the microphone 400, and the IR itself including the direct sound component is reverberated and convolved with the microphone signal from the microphone 400 in the DSP 404. You can feel a specific sound field space.
  • the illustration of the microphone amplifier / ADC 402 and the DAC / amplifier 406 is omitted.
  • the headphones 500 are hermetically sealed, sound insulation is often not sufficient particularly in the low frequency range, and some sounds enter through the housing of the headphones 500 and sound as a remaining component of the sound insulation effect is generated. It may be heard on the user's eardrum.
  • FIG. 7 is a schematic diagram showing a response image of sound pressure on the eardrum when the sound emitted from the sound source 600 is an impulse and the spatial transmission is flat.
  • the sealed headphone 500 has a high sound insulation property.
  • the direct sound component (the sound insulation residue) in the spatial transmission remains in the portion where the sound insulation could not be performed, and the user can hear it a little.
  • the response sequence of the impulse response IR shown in FIG. 6 is continuously observed through the processing time by the convolution (or FIR) calculation in the DSP 404 and the “system delay” time generated in the ADC and DAC. Become.
  • the direct sound component of the spatial transmission may be heard as the remainder of the sound insulation, or a sense of discomfort may occur as a bodily sensation due to overall system delay. More specifically, in FIG. 7, when sound is generated from the sound source 600 at time t0, the direct sound component of spatial transmission is heard by the user after the passage of the spatial transmission time from the sound source 600 to the eardrum (time t1). The sound that can be heard here is the sound remaining after sound insulation that cannot be sound-insulated by the sealed headphones 500. Thereafter, when the above-mentioned “system delay” time elapses, the direct sound component after the reverberation process is heard (time t2).
  • the direct sound component after the reverberation process is heard, which may cause the user to feel uncomfortable. Furthermore, after that, the initial reflected sound after the reverberation process is heard (time t3), and the reverberation component after the reverb process is heard after time t4. There may be a sense of discomfort. Even if the headphones 500 can completely block external sounds, the occurrence of the “system delay” described above may cause a gap between the user's vision and hearing. In FIG. 7, while the sound from the sound source 600 is generated at time t0, the direct sound component that the user first listens to when the headphones 500 can completely block the external sound is the direct sound component after the reverberation process. There is a gap between the user's vision and hearing. As an example of the shift that occurs between the user's visual sense and hearing, there is a shift between the actual mouth movement of the conversation partner and the corresponding voice (lip sync).
  • FIGS. 8 and 9 are schematic diagrams showing a case where an impulse response IR is used in the same sound field environment as in FIGS.
  • FIG. 8 corresponds to FIG. 6, and
  • FIG. 9 corresponds to FIG.
  • the direct sound component of the impulse response IR shown in FIG. 6 is not used as the component convoluted by the DSP 404.
  • FIGS. 6 and 7 because the direct sound component directly enters the external auditory canal through the space when using the “open ear hole type” sound output device 100 according to the present embodiment. This is because, unlike the sealed headphone 500, it is not necessary to create a direct sound component by calculation by the DSP 404 and headphone reproduction.
  • the system delay time including the DSP processing calculation time generated between the measured direct sound component and the initial reflected sound is obtained.
  • the information (1) is subtracted from the impulse response IR (IR shown in FIG. 6) of the original specific sound field (a region surrounded by a one-dot chain line in FIG. 8).
  • FIG. 9 is a schematic diagram showing a response image of sound pressure on the eardrum when the sound generated by the sound source 600 is an impulse and the spatial transmission is flat as in FIG.
  • the spatial transmission time (t0 to t1) from the sound source 600 to the eardrum occurs in the same way as in FIG. 7, but at time t1, the ear canal is open. Therefore, the direct sound component of spatial transmission is observed on the eardrum.
  • time t5 the initial reflected sound by the reverberation process is observed on the eardrum, and the reverberation component by the reverb process is observed on the eardrum after time t6.
  • time t6 the initial reflected sound by the reverberation process is observed on the eardrum, and the reverberation component by the reverb process is observed on the eardrum after time t6.
  • the initial reflected sound of the reverb process is set to an appropriate timing. Since the initial reflected sound of the reverb process is a sound according to a specific sound field environment, the user enjoys a sound field feeling that is in a different real position corresponding to the specific sound field environment. be able to. Since the system delay can be absorbed by subtracting the information of the system delay time generated between the direct sound component and the initial reflected sound from the impulse response IR of the original specific sound field, the system itself is made to have a low delay characteristic. The necessity and the necessity of operating the calculation resource of the DSP 404 at high speed are alleviated. Therefore, the system scale can be reduced and the system configuration can be simplified, so that a large practical effect such as a significant reduction in manufacturing cost can be obtained.
  • the direct sound is not heard twice in succession as compared with the systems shown in FIGS.
  • the sound quality degradation due to the interference between the unnecessary remaining sound insulation component and the direct sound component due to the reverb process, which has occurred in FIGS. 6 and 7, can be avoided.
  • the direct sound component is a real sound or an artificial sound due to the resolution and frequency characteristics compared to the reverberation component.
  • the direct sound can be easily discriminated as a real sound or an artificial sound, the sound reality is particularly important.
  • the direct sound audible to the user's ear is the direct “sound” itself generated by the sound source 600.
  • ADC analog to digital converter
  • DAC digital to analog converter
  • the user can feel more realistic by listening to the real sound.
  • the impulse response IR ′ in consideration of the system delay shown in FIGS. 8 and 9 is configured so that the time between the direct sound component and the initial reflected sound component in the impulse response IR ′ shown in FIG. It can also be said that the system can be used effectively as the delay time of ADC, DAC and DAC. This is a system that is established because the sound can be directly transmitted to the eardrum as it is by the acoustic output device 100 with the open ear canal, and when the “sealed” headphones are used, it is difficult to establish the system itself.
  • FIG. 10 shows an example in which a sense of reality is further enhanced by applying reverb processing.
  • the system on the R (right) side is illustrated, but it is assumed that the L (left) side also has a system configuration symmetrical to that in FIG. 10.
  • the playback devices on the L side and R side are independent, and both are not connected by wire.
  • the L-side and R-side sound output devices 100 are connected by a wireless communication unit 412 so that bidirectional communication is possible.
  • the L-side and R-side acoustic output devices 100 may be capable of bidirectional communication using a smartphone or the like as a relay.
  • the reverb process in FIG. 10 realizes stereo reverb.
  • different reverb processes are applied to the microphone signals of the right microphone 400 and the left microphone 400, respectively, and the addition is used as a reproduction output.
  • different reverb processes are performed on the microphone signals of the left microphone 400 and the right microphone 400, respectively, and the addition is used as a reproduction output.
  • the sound heard by the L-side microphone 400 is received by the R-side wireless communication unit 412 and reverberated by the DSP 404b.
  • the sound heard by the microphone 400 on the R side is amplified by the microphone amplifier / ADC 402, subjected to AD conversion, and then reverberated by the DSP 404a.
  • the left and right microphone signals subjected to the reverb process are added by an adding unit (superimposing unit) 414.
  • the transmission and reception of microphone signals on the L side and the R side are performed by communication methods such as Bluetooth (registered trademark) (LE), WiFi, original 900 MHz, NFMI (Near Field Electromagnetic Induction used in hearing aids), infrared rays, and the like. Although it can be performed by a method such as communication, it may be transmitted and received by wire. In addition to the microphone signal, it is desirable to share (synchronize) information about the reverb type selected by the user between LRs.
  • Bluetooth registered trademark
  • WiFi WiFi
  • original 900 MHz original 900 MHz
  • NFMI Near Field Electromagnetic Induction used in hearing aids
  • NFMI Near Field Electromagnetic Induction used in hearing aids
  • infrared rays and the like.
  • it may be transmitted and received by wire.
  • HMD Head Mounted Display
  • the content is stored in, for example, a medium (Media; disk, memory, etc.), and the content is sent from the cloud and temporarily stored in the local device. Including cases where The content includes content that is highly interactive such as a game.
  • the video portion is displayed on the HMD 600 via the video processing unit 420.
  • reverb processing is performed offline when creating the content for the voices and sounds of people in the place.
  • reverberation processing (rendering) on the playback device side.
  • the sense of immersion in the content will be hindered at once.
  • the voice uttered by the user himself or the real surroundings The sound is adapted to the sound field environment according to the scene.
  • the scene control information generation unit 422 generates scene control information corresponding to the estimated sound field environment or the sound field environment specified by the metadata.
  • the reverb type closest to the sound field environment is selected from the reverb type database 408 according to the scene control information, and the DSP 404 performs reverberation processing based on the selected reverb type.
  • the microphone signal subjected to the reverberation process is input to the adding unit 426, convolved with the audio of the content processed by the audio / audio processing unit 424, and reproduced by the acoustic output device 100.
  • the signal that is convoluted with the audio of the content is a microphone signal that has been reverberated according to the sound field environment of the content.
  • FIG. 11 assumes a case where previously created content including a game or the like is displayed on the HMD 600.
  • a use case close to FIG. 11 by combining a camera or the like with the HMD 600 or using a half mirror, an actual scene (environment) of the surroundings is displayed on the HMD 600 and an object made of CG is displayed.
  • the sound field when it is desired to be a sound field environment different from the actual place while being based on the video of the surrounding situation, it can be constructed by a system similar to FIG.
  • the surrounding situation dropping an object, someone talking
  • the surrounding situation ambient environment
  • Sound field expression can be obtained with vision and become more realistic.
  • FIG. 11 and FIG. 12 are the same.
  • FIG. 13 is a schematic diagram illustrating a case in which a call is made while sharing the acoustic environment of the other party to be called. This function can be set to ON / OFF by user selection.
  • the reverb type is specified by the user himself / herself, or specified / estimated by the content.
  • the caller experiences the other party's sound field environment in a realistic way.
  • the sound field environment information of the other party is required. This may be obtained by analyzing a microphone signal listened to by the other party's microphone 400, or the location of the other party from the map information via GPS. The building may be estimated to determine the degree of reverberation.
  • the two parties that communicate with each other transmit information indicating the acoustic environment around them to the other party separately from the call voice.
  • One user utters his / her voice in the sound field where the other user (calling party) exists by reverberating the echo of his / her voice based on the acoustic environment acquired from the other user. You can feel like that.
  • the acoustic environment acquisition unit (acoustic environment information acquisition unit) 430 obtains the degree of reverberation by estimating the location and building of the other party from the map information via GPS, and acquires it as acoustic environment information.
  • the wireless communication unit 412 transmits the acoustic environment information acquired by the acoustic environment acquisition unit 430 to the partner side together with the microphone signal.
  • the other party receiving the microphone signal selects a reverb type from the reverb type database 408 based on the acoustic environment information received together with the microphone signal, and performs reverb processing on the right and left DSPs 404L and 404R404 for the own microphone signal.
  • the microphone signal received from the other party is convolved with the signal after reverberation by the adders 428R and 428L.
  • one user performs reverberation processing according to the other party's acoustic environment based on the other party's acoustic environment information for ambient sounds including his / her voice, while the other party's voice, Since sounds corresponding to the other party's acoustic environment are added by the adders 428R and 428L, the user feels as if he / she is in the same sound field environment (eg, church, hall) as the other party. Can be obtained.
  • the same sound field environment eg, church, hall
  • connection between the wireless communication unit 412 and the microphone amplifiers / ADCs 402L and 402R and the connection between the wireless communication unit 412 and the addition units 428L and 428R are connected by wireless or wired connection.
  • wireless for example, short-range wireless such as Bluetooth (registered trademark) (LE) or NFMI may be used, and short-range wireless may include a relay.
  • the user's voice for transmission may be extracted as monaural in a voice-specific manner, for example, using a beam forming technique.
  • Beam forming is performed by a beam forming unit (BF) 432.
  • BF beam forming unit
  • the HRTF head-related transfer function
  • the sound image is localized outside the head by localizing the virtual sound image at an arbitrary position. It is also possible to do so.
  • the other party's sound image position may be preset, may be arbitrarily set by the user, or may be combined with the video. As a result, for example, it is possible to experience that the sound image of the other party on the phone is next to the user. Of course, it may be accompanied by a video expression as if the other party is on the side.
  • the audio signal after the virtual sound image localization is added to the microphone signal by the adders 428L and 428R, and reverberation processing is performed. This makes it possible to return the sound that has been localized in the virtual sound image to the sound in the acoustic environment of the communication partner.
  • the audio signal after the virtual sound image localization is added to the microphone signal after the reverberation processing by the adders 428L and 428R.
  • the sound with the virtual sound image localized does not correspond to the acoustic environment of the communication partner, but the sound of the communication partner can be clearly distinguished by localizing the sound image at a desired position.
  • FIGS. 14 and 15 are schematic diagrams illustrating an example of a telephone call with a large number of people.
  • each person environment handle user, users A to G
  • the sound field set here does not necessarily have to be the sound field of someone to be called, and may be a sound field of a completely artificial virtual space.
  • each person may set an avatar and use a video auxiliary expression such as HMD.
  • communication by the wireless communication unit 436 can be performed using an electronic device 700 such as a smartphone.
  • the environment handle user sends acoustic environment information for setting the acoustic environment to the wireless communication unit 440 of the electronic device 700 of each user A, B, C,.
  • the electronic device 700 of the user A that has received the acoustic environment information sets an optimal acoustic environment from the reverb type database 408 based on the acoustic environment information, and reverberates the microphone signals collected by the left and right microphones 400.
  • Reverb processing is performed by the processing units 404L and 404R.
  • the electronic devices 700 of the users A, B, C,... Communicate with each other via the wireless communication unit 436.
  • the sound environment transfer function (HRTF L, R) is convoluted by a filter (acoustic environment adjustment unit) 438 in the sound of another user received by the wireless communication unit 436 of the electronic device 700 of the user A.
  • the sound source information of the sound source 406 can be arranged in a virtual space, and the sound can be arranged in a space so that the sound source information exists in the same space as in reality.
  • the acoustic environment transfer functions L and R mainly include information on reflected sound and reverberation. Ideally, an actual reproduction environment is assumed or an environment close to the actual reproduction environment is assumed.
  • the acoustic environment transfer functions L, R are convoluted by a filter 438, so that the users A, B, C,. ⁇ Even if you are in a remote location, you can listen to the sound as if you were having a meeting in one room.
  • the sounds of other users B, C,... are added by the adder 442, and the ambient sound after the reverberation process is added, amplified by the amplifier 444, and sent from the sound output device 100 to the ear of the user A. Is output.
  • the same processing is performed in the electronic devices 700 of other users B, C,.
  • each user A, B, C,... Can talk in the acoustic environment set by the filter 438, and further, his / her voice and the sound of his / her surrounding environment
  • the environment handle can be heard as a sound of a specific acoustic environment set by the user.
  • an acoustic acquisition unit that acquires an audio signal based on surrounding sounds
  • a reverb processing unit for performing reverb processing on the audio signal
  • An acoustic output unit that outputs the sound of the audio signal subjected to the reverberation process in the vicinity of a listener's ear
  • An acoustic output device comprising: (2) The sound output device according to (1), wherein the reverberation processing unit performs the reverberation process by removing a direct sound component of an impulse response.
  • the sound output device includes a first reverb processing unit that performs reverberation processing on the audio signal acquired on one side of the listener's left and right ears, and the acquired on the other side of the listener's left and right ears.
  • a second reverberation processing unit for reverberating the audio signal A superimposing unit that superimposes the audio signal reverberated by the first reverb processing unit and the audio signal reverberated by the second reverb processing unit;
  • the sound output device according to any one of (1) to (4), wherein the sound output unit outputs sound based on the audio signal superimposed by the superimposing unit.
  • the sound output unit outputs the sound of the content to the viewer's ear,
  • the sound output device according to any one of (1) to (5), wherein the reverb processing unit performs the reverb processing in accordance with an acoustic environment of the content.
  • the sound output device wherein the reverb processing unit performs the reverb processing based on a reverb type selected based on an acoustic environment of the content.
  • the sound output device further including a superimposing unit that superimposes the audio signal of the content on the audio signal after the reverberation process.
  • An acoustic environment information acquisition unit that acquires acoustic environment information representing the acoustic environment around the communication partner is provided, The reverberation processing unit according to (1), wherein the reverb processing unit performs the reverb processing based on acoustic environment information.
  • the sound output device further including a superimposing unit that superimposes the audio signal received from the communication partner on the audio signal after the reverberation process.
  • a superimposing unit that superimposes the audio signal received from the communication partner on the audio signal after the reverberation process.
  • an acoustic environment adjustment unit that adjusts a sound image position of an audio signal received from a communication partner;
  • a superimposing unit that superimposes a signal whose sound image position is adjusted by the acoustic environment adjusting unit on the audio signal acquired by the acoustic acquiring unit;
  • the reverberation processing unit according to (9), wherein the reverb processing unit performs reverberation processing on the audio signal superimposed by the superimposition unit.
  • an acoustic environment adjustment unit that adjusts a sound image position of a monaural audio signal received from a communication partner;
  • the acoustic output device further including a superimposing unit that superimposes the signal whose sound image position is adjusted by the acoustic environment adjusting unit on the audio signal after the reverberation processing.
  • An acoustic output method comprising: (14) means for acquiring an audio signal based on ambient sound; Means for performing reverberation processing on the audio signal; Means for outputting the sound of the audio signal subjected to the reverberation processing in the vicinity of the listener's ear; As a program to make the computer function as. (15) A sound acquisition unit that acquires sound environment information representing the surrounding sound environment, and sound environment information representing the sound environment around the second sound output device that is the communication partner are obtained from the second sound output device.
  • An acoustic environment information acquisition unit a reverberation processing unit that performs reverberation processing on the audio signal acquired by the acoustic acquisition unit according to the acoustic environment information, and sound generated by the audio signal subjected to the reverb processing.
  • a first sound output device comprising: a sound output unit that outputs to a listener's ear; An acoustic acquisition unit that acquires acoustic environment information that represents the surrounding acoustic environment, an acoustic environment information acquisition unit that acquires acoustic environment information that represents the surrounding acoustic environment of the first acoustic output device that is the communication partner, and the acoustic A reverberation processing unit that performs reverberation processing on the sound signal acquired by the sound acquisition unit according to environmental information, and an acoustic output unit that outputs sound from the sound signal subjected to the reverberation processing to a listener's ear
  • the second sound output device comprising:
  • An acoustic system comprising:

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】リアルタイムに取得された音に対して所望の残響を付加し、聴取者が聴取できるようにする。 【解決手段】本開示に係る音響出力装置は、周囲の音響による音声信号を取得する音響取得部と、前記音声信号に対し、リバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力する音響出力部と、を備える。この構成により、リアルタイムに取得された音に対して所望の残響を付加し、聴取者が聴取することが可能となる。

Description

音響出力装置、音響出力方法、プログラム、音響システム
 本開示は、音響出力装置、音響出力方法、プログラム、音響システムに関する。
 従来、例えば下記の特許文献1に記載されているように、所定の環境下でインパルス応答を測定し、得られたインパルス応答に入力信号を畳み込むことで、インパルス応答による残響を再現する技術が知られている。
特開2000-97762号公報
 しかしながら、特許文献1に記載された技術は、残響音を付加したいデジタルオーディオ信号に対して、予め測定により取得したインパルス応答を畳み込んでいる。このため、特許文献1に記載された技術は、リアルタイムに取得された音に対して、所望の空間を模擬するような、空間模擬伝達関数処理(例えば、残響・リバーブ)を付加することは何ら想定していない。
 上記事情に鑑みれば、リアルタイムに取得された音に対して所望の空間模擬伝達関数(残響)を付加し、聴取者が聴取できるようにすることが望ましい。なお、以降、空間模擬伝達関数処理のことを、簡単のために「リバーブ処理」と表記する。なお、以降、空間模擬伝達関数処理のことを、簡単のために「リバーブ処理」と表記する。なお、必ずしも残響成分が過多の場合だけでなく、例えば小空間模擬のような残響成分が少ない場合でも、空間を模擬する目的で、空間の2点間の伝達関数をベースとしていれば、以降もリバーブ処理と表現する。
 本開示によれば、周囲の音響による音声信号を取得する音響取得部と、前記音声信号に対し、リバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力する音響出力部と、を備える、音響出力装置が提供される。
 また、本開示によれば、周囲の音響による音声信号を取得することと、前記音声信号に対し、リバーブ処理を行うことと、前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力することと、を備える、音響出力方法が提供される。
 また、本開示によれば、周囲の音響による音声信号を取得する手段と、前記音声信号に対し、リバーブ処理を行う手段と、前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力する手段と、としてコンピュータを機能させるためのプログラムが提供される。
 また、本開示によれば、周囲の音響環境を表す音響環境情報を取得する音響取得部と、通信相手である第2の音響出力装置の周囲の音響環境を表す音響環境情報を前記第2の音響出力装置から取得する音響環境情報取得部と、前記音響環境情報に応じて、前記音響取得部で取得された音声信号に対してリバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた音声信号による音響を聴取者の耳に出力する音響出力部と、を備える第1の音響出力装置と、周囲の音響環境を表す音響環境情報を取得する音響取得部と、通信相手である前記第1の音響出力装置の周囲の音響環境を表す音響環境情報を取得する音響環境情報取得部と、前記音響環境情報に応じて、前記音響取得部で取得された音声信号に対してリバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた音声信号による音響を聴取者の耳に出力する音響出力部と、を備える前記第2の音響出力装置と、を備える、音響システムが提供される。
 以上説明したように本開示によれば、リアルタイムに取得された音に対して所望の残響を付加し、聴取者が聴取することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る音響出力装置の構成を示す模式図である。 本開示の一実施形態に係る音響出力装置の構成を示す模式図である。 耳穴開放型の音響出力装置が聴取者の耳に音波を出力する様子を示す模式図である。 本開示の基本的なシステムを示す模式図である。 図4に示すシステムにおいて、音響出力装置を装着したユーザを示す模式図である。 カナル型等の通常の「密閉型」のヘッドホンとマイクを用いて、リバーブ処理後の音のユーザ体験を行わせる処理システムを示す模式図である。 図6の場合に、音源が発する音をインパルスとし、空間伝達はフラットとしたときの鼓膜上の音圧の応答イメージを示す模式図である。 「耳穴開放型」の音響出力装置を用い、図6及び図7と同じ音場環境でのインパルス応答IRを用いた場合を示す模式図である。 図8の場合に、音源が発する音をインパルスとし、空間伝達はフラットとしたときの鼓膜上の音圧の応答イメージを示す模式図である。 リバーブ処理の応用により、より臨場感を高めた例を示す模式図である。 映像コンテンツをベースにHMD表示を組み合わせた例を示す模式図である。 映像コンテンツをベースにHMD表示を組み合わせた例を示す模式図である。 通話する相手の音響環境をシェアしながら通話する場合を示す模式図である。 送話のための自分の声に関して、ビームフォーミング技術によりモノラルとして抽出した例を示す模式図である。 仮想音像定位させた後の音声信号をリバーブ処理後のマイク信号に加算した例を示す模式図である。 多人数による通話の例を示す模式図である。 多人数による通話の例を示す模式図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.音響出力装置の構成例
 2.本実施形態におけるリバーブ処理
 3.本実施形態に係るシステムの応用例
 1.音響出力装置の構成例
 まず、図1を参照して、本開示の一実施形態に係る音響出力装置の概略構成について説明する。図1及び図2は、本開示の一実施形態に係る音響出力装置100の構成を示す模式図である。ここで、図1は音響出力装置100の正面図であり、図2は音響出力装置100を左側から見た斜視図である。図1及び図2に示す音響出力装置100は、左耳に装着するように構成されているが、右耳装着用の音響出力装置(不図示)はこれとは左右対称に構成されている。
 図1及び図2に示す音響出力装置100は、音響を発生する音響発生部(音響出力部)110と、音響発生部110から発生される音響を一端121から取り込む音導部120と、音導部120を他端122付近で保持する保持部130を備えている。音導部120は、内径が1~5mmの中空の管材からなり、その両端はともに開放端である。音導部120の一端121は、音響発生部110からの発生音の音響入力孔であり、他端122はその音響出力孔になっている。従って、一端121が音響発生部110に取り付けられることで、音導部120は片側開放状態となっている。
 後述するように、保持部130は、外耳道の入り口付近(例えば、珠間切痕)と係合して、音導部120の他端122の音響出力孔が外耳道の奥側を向くように、音導部120をその他端122付近で支持する。音導部120の少なくとも他端122付近の外径は、耳穴の内径よりも小さくなるように形成されている。従って、音導部120の他端122が保持部130によって外耳道の入り口付近で保持されている状態でも、聴取者の耳穴を塞ぐことはない。すなわち、耳穴は開放されている。音響出力装置100は、従来のイヤホンとは異なり、「耳穴開放型」ということができる。
 また、保持部130は、音導部120を保持した状態でも、外耳道入口(耳穴)を外界に開放する開放部131を備えている。図1及び図2に示す例では、保持部130は、リング状の構造体であり、棒状の支持部材132でのみ音導部120の他端122付近と連結しているので、リング状構造体のそれ以外の部分は全て開口部131となる。なお、後述するように、保持部130は、リング状構造に限定されるものではなく、中空構造を備えていれば、音導部120の他端122を支持できる任意の形状で良い。
 管状の音導部120は、音響発生部110から発生される音響をその一端121から管内に取り込むと、その空気振動を伝搬して、保持部130によって外耳道の入り口付近に保持された他端122から外耳道に向けて放射して、鼓膜に伝える。
 上述したように、音導部120の他端122付近を保持する保持部130は、外耳道の入り口(耳穴)を外界に開放する開口部131を備えている。従って、音響出力装置100を装着している状態でも、聴取者の耳穴を塞ぐことはない。聴取者は、音響出力装置100を装着して音響発生部110から出力される音響を聴取している間も、開口部131を介して周囲音を十分に聴取することができる。
 また、本実施形態に係る音響出力装置100は、耳穴を開放しているが、音響発生部100からの発生音(再生音)の外部への漏れを抑制することができる。音導部120の他端122が外耳道の入り口付近で奥を向くように取り付けられ、発生音の空気振動を鼓膜の近くで放射することから、音響出力部100の出力を小さくしても十分な音質を得ることができるからである。
 また、音導部120の他端122から放射される空気振動の指向性も、音漏れの防止に寄与する。図3には、耳穴開放型の音響出力装置100が聴取者の耳に音波を出力する様子を示している。音導部120の他端122から外耳道の内部に向けて空気振動が放射される。外耳道300は、外耳道入り口301から始まり鼓膜302の内側で終了する穴であり、一般的におよそ25~30mmの長さがある。外耳道300は筒状をした閉空間である。このため、音響部120の他端122から外耳道300の奥に向かって放射された空気振動は、参照符号311で示すように、指向性を以って鼓膜302まで伝搬する。また、空気振動は外耳道300内では音圧が上がることから、とりわけ低域の感度(ゲイン)が向上する。他方、外耳道300の外側すなわち外界は開空間である。このため、音導部120の他端122から外耳道300の外に放射された空気振動は、参照符号312で示すように、外界では指向性がなく、急激に減衰する。
 再び図1及び図2を参照しながら説明する。管状の音導部120は、中間部分に、耳穴の背面側から正面側に折り返す屈曲形状を有している。この屈曲部分は、開閉構造を有するピンチ部123となっており、ピンチ力を発生して耳垂を挟持することができるが、詳細については後述する。
 また、音導部120は、外耳道の入り口付近に配設される他端122と、屈曲するピンチ部123の間に、変形部124をさらに有している。変形部124は、過度な外力が作用すると変形して、音導部120の他端122が必要以上に外耳道の奥に入り込まないようにする。
 以上のように構成された音響出力装置100によれば、聴取者は、音響出力装置100を装着している最中にも、周囲音を自然に聴くことができる。従って、空間把握、危険察知、会話並びに会話時の微妙なニュアンスの把握といった、聴覚特性に依存した人間の機能を正常に利用することができる。
 以上のように、音響出力装置100は、再生のための構造物で耳穴近傍を塞がないことで周囲の音は音響的に透過と見なすことができ、通常のイヤホンを装着していない環境と同様、周囲の音はそのまま聞こえており、それに対してパイプやダクト形状を通じて目的とする音声情報や音楽も同時に再生することで、双方の音を聴取することができるものである。
 現在一般に普及しているカナル型と言われるイヤホンデバイスの場合、基本的には外耳道を塞ぐ密閉構造となっているため、自分の発生する音声や自らの咀嚼音は、外耳道の開放時と比べて異なるように聴こえるため、違和感があり、ユーザの不快感の原因となることが多い。これは、自発声音や咀嚼音が骨や肉を通じて、密閉された外耳道に放射されるため、低域が増強された状態で、その音が鼓膜に通じるためと考えられている。音響出力装置100ではこのような現象が起こらないため、目的とする音声情報を聞きながらでも、通常通りの会話を楽しむことが可能である。
 以上のように、本実施形態の音響出力装置100によれば、周囲の音はそのまま音波として通しつつ、提示させた音声や音楽を、管状の音導部120を通じて耳穴付近に送ることで、ユーザは周囲の音を聞きながら音声や音楽を体験することができる。
 図4は、本開示の基本的なシステムを示す模式図である。図4に示すように、左右それぞれの音響出力装置100に対してマイク(マイクロフォン(音響取得部))400が搭載されている。このマイク400出力されたマイク信号は、マイクアンプ・ADC402で増幅され、AD変換された後、DSP(またはMPU)404でDSP処理(リバーブ処理)されたのち、DAC・アンプ(またはデジタルアンプ)406で増幅、DA変換され、音響出力装置100にて再生される。これにより、音響発生部110から音響が発生し、音導部120を介してユーザの耳に音が聴こえることになる。図4では、左右独立でマイク400が付いており、それぞれの側でマイク信号が独立リバーブ処理される。なお、マイクアンプ・ADC402、DSP404、DAC・アンプ406等の各構成要素は、音響出力装置100の音響発生部110に設けることができる。また、図4に示す各ブロックの構成要素は、回路(ハードウェア)、又はCPUなどの中央演算処理装置とこれを機能させるためのプログラム(ソフトウェア)から構成されることができる。
 図5は、図4に示すシステムにおいて、音響出力装置100を装着したユーザを示す模式図である。この場合、ユーザ体験としては、図5に示すように、直接外耳道に入る周囲の音と、マイク400で収音されて信号処理が施されて音導部120に入る音が、外耳道経路において空間音響的に加算されるため、両方の合成音が鼓膜に届き、この合成音に基づき音場や空間が認知される。
 上述したように、DSP404は、マイク信号に対してリバーブ処理を行うリバーブ処理部(残響処理部)として機能する。リバーブ処理としては、実際の任意の場所で音響測定した2点間のインパルス応答をそのまま畳み込む(周波数領域での演算は伝達関数を掛け算することと等価)、所謂「サンプリングリバーブ」が、臨場感効果が高いが、計算リソース簡略化のために、この一部または全部をIIR(Infinite impulse response)で近似したフィルタを用いても良い。このようなインパルス応答は、シミュレーションにより求めることもできる。図4に示すリバーブ種別データベース(DB)408には、例えば、コンサートホール、映画館等の任意の場所で音響測定した複数のリバーブ種別に対応するインパルス応答が格納されている。ユーザは、複数のリバーブ種別に対応するインパルス応答の中から、最適なものを選択することができる。なお、畳み込みは、前述の特許文献1と同様の手法で行うことができ、FIRデジタルフィルタまたはコンボルーバを使うことができる。この際、複数のリバーブのためのフィルタ係数を持つことができ、ユーザが任意で選択することが可能である。この時、ユーザは周囲で起こった音を発する事象(誰かが発話する、モノが落ちる、ユーザ自身が音を発する、など)に応じて、実際にいる場所の音場ではない、別の場所の音場を、あらかじめ測定またはシミュレートしたインパルス応答(IR:Impulse Response)を通じて体感することができる。空間の広さの認識などについても、聴感上から、そのIRを測定した場所そのものを体感することができる。
 2.本実施形態におけるリバーブ処理
 次に、本実施形態におけるリバーブ処理に関して詳細に説明する。最初に、図6及び図7に基づいて、カナル型等の通常の「密閉型」のヘッドホン500とマイク400を用いて、ユーザ体験を行わせる処理システムについて説明する。図6に示すヘッドホン500の構成は、「密閉型」であること以外は、図4に示す音響出力装置100と同様に構成されており、左右のヘッドホン500の近傍にマイク400が設けられている。この時、密閉型のヘッドホン500は遮音性が高いものとする。ここでは、ある特定の音場空間をシミュレートするために、図6に示すようなインパルス応答IRが測定済みであるものとする。図6に示すように、音源600が発した音をマイク400で集音し、この直接音成分を含むIRそのものをリバーブ処理として、DSP404においてマイク400からのマイク信号に畳み込むことで、ユーザはその特定の音場空間を感じることができる。なお、図6において、マイクアンプ・ADC402、DAC・アンプ406については、図示を省略する。
 但し、ヘッドホン500は密閉型であっても、特に低域においては遮音性が十分でないことが多く、一部の音はヘッドホン500の筐体を通じて中に入り、遮音効果の残り成分としての音がユーザの鼓膜上で聞こえてしまうことが考えられる。
 図7は、音源600が発する音をインパルスとし、空間伝達はフラットとしたときの鼓膜上の音圧の応答イメージを示す模式図である。上述のように、密閉型のヘッドホン500は遮音性が高いが、遮音できなかった部分に関しては空間伝達での直接音成分(遮音残り)が残り、ユーザに若干聞こえてしまう。そののちに、DSP404での畳み込み(またはFIR)演算による処理時間やADC、DACで生じる「システム遅延」の時間を経て、図6に示したインパルス応答IRの応答列が続いて観測されることになる。この場合、空間伝達の直接音成分が、遮音の残りとして聞こえてしまうことや、全体的なシステムの遅延で、体感として違和感の発生が起こる可能性がある。より具体的には、図7において、音源600から時刻t0で音が発生すると、音源600から鼓膜までの空間伝達時間の経過後、空間伝達の直接音成分がユーザに聴こえる(時刻t1)。ここで聴こえる音は、密閉型のヘッドホン500で遮音できなかった遮音残りの音である。その後、上述した「システム遅延」の時間が経過すると、リバーブ処理後の直接音成分が聴こえる(時刻t2)。このように、空間伝達の直接音成分がユーザに聴こえた後、リバーブ処理後の直接音成分が聴こえるため、ユーザに違和感が生じてしまう可能性がある。更に、その後にリバーブ処理後の初期反射音が聴こえ(時刻t3)、時刻t4以降にリバーブ処理後の残響成分が聴こえるため、「システム遅延」によりリバーブ処理後の音が全体として遅れるため、ユーザに違和感が生じてしまう可能性がある。また、ヘッドホン500が外部の音を完全に遮音できたとしても、上述した「システム遅延」の発生により、ユーザの視覚と聴覚との間にズレが生じる可能性がある。図7では、音源600からの音が時刻t0で発生するのに対し、ヘッドホン500が外部の音を完全に遮音できた場合にユーザが最初に聴く直接音成分はリバーブ処理後の直接音成分であり、ユーザの視覚と聴覚との間にズレが生じる。ユーザの視覚と聴覚との間に生じるズレの例として、会話している相手の実際の口の動きと、これに対応する音声とのズレが挙げられる(リップシンク)。
 以上のような違和感が生じる可能性があるものの、図6及び図7に示した本実施形態に係る構成によれば、マイク400でリアルタイムに取得された音に対して所望の残響を付加することができ、聴取者に対して異なる音響環境の音を聴取させることが可能である。
 図8及び図9は、「耳穴開放型」の音響出力装置100を用い、図6及び図7と同じ音場環境でのインパルス応答IRを用いた場合を示す模式図である。ここで、図8は図6に対応し、図9は図7に対応する。先ず、図8に示すように、本実施形態では、DSP404が畳み込む成分として、図6に示したインパルス応答IRのうち直接音成分は使用しない。これは、本実施形態に係る「耳穴開放型」の音響出力装置100を用いた場合は、そもそもの直接音の成分は、空間を通じてそのまま外耳道に入ってくるため、図6及び図7に示した密閉型のヘッドホン500とは異なり、直接音成分をDSP404による演算とヘッドホン再生によって作り上げる必要がないためである。
 このため、図8に示したように、実際に畳み込み演算で使用するインパルス応答IR’として、測定された直接音成分から初期反射音の間に生じる、DSP処理演算時間を含むシステム遅延の時間分の情報を、本来の特定音場のインパルス応答IR(図6に示すIR)から差し引いた部分(図8中に一点鎖線で囲んだ領域)を使うこととする。
 図9は、図8の場合において、図7と同様に、音源600が発する音をインパルス、空間伝達はフラットとしたときの鼓膜上の音圧の応答イメージを示す模式図である。図9に示すように、音源600から時刻t0で音が発生すると、音源600から鼓膜までの空間伝達時間(t0~t1)は図7と同様に生じるが、時刻t1において、耳穴開放型であるため空間伝達の直接音成分が鼓膜上で観測される。その後、時刻t5において、リバーブ処理による初期反射音が鼓膜上で観測され、時刻t6以降にリバーブ処理による残響成分が鼓膜上で観測される。この際、図8に示したように、畳み込むIR上で予めシステム遅延分に相当する時間を差し引いているので、ユーザは、直接音成分を聴いた後、リバーブ処理の初期反射音を適正なタイミングで聴くことができ、リバーブ処理の初期反射音は特定の音場環境に応じた音であるため、ユーザは特定の音場環境に対応するリアルな別の位置にいるような音場感を楽しむことができる。直接音成分から初期反射音の間に生じるシステム遅延の時間分の情報を本来の特定音場のインパルス応答IRから差し引いたことにより、システム遅延分を吸収できるため、システム自体を低遅延性にする必要性や、DSP404の計算リソースを高速に動作させる必要性が緩和される。従って、システム規模を小さくすることができ、システム構成をより簡素にできるため、製造コストを大幅に抑えることができるなどの大きな実用的効果を得ることができる。
 また、本実施形態に係るシステムによれば、図8及び9に示したように、図6及び図7に示すシステムに比べて、直接音が2回続けて聴こえることがなく、全体的な遅延の整合性を大幅に向上できるのみならず、図6及び図7で生じていた、不要な遮音の残り成分とリバーブ処理による直接音成分との干渉による音質劣化も避けることができる。
 また、人間は、残響成分に比べて、直接音成分の方が、分解能や周波数特性に起因して、現実音か人工的な音かをより容易に見分けることができる。換言すれば、直接音に関しては、現実音か人工的な音かの判別がし易いため、特に音のリアリティが重要となる。図8及び図9に示す本実施形態のシステムでは、「耳穴開放型」の音響出力装置100を用いるため、ユーザの耳に聴こえる直接音は、音源600が発生した直接的な「音」そのものであり、演算処理やADC,DACなどによる劣化は原理上存在しないため、ユーザは、現実音を聴くことにより、より臨場感を強く感じることが可能となる。
 なお、図8及び図9に示したシステム遅延を考慮したインパルス応答IR’の構成は、図6に示すインパルス応答IR’における直接音成分と初期反射音成分の間にある時間を、DSP演算処理やADC,DACの遅延時間として有効に使うことができるシステムともいえる。これは、耳穴開放型の音響出力装置100により直接音をそのまま鼓膜に伝えることができるから成立するシステムであり、「密閉型」のヘッドホンを用いる場合はシステムの成立自体が困難である。さらに、高速処理が可能な低遅延なシステムを用いることができなくても、直接音成分から初期反射音の間に生じるシステム遅延の時間分の情報を本来の特定音場のインパルス応答IRから差し引くことで、異なる空間にいるようなユーザ体験をもたらすことができるため、低コストで画期的システムを提供可能である。
 3.本実施形態に係るシステムの応用例
 次に、本実施形態に係るシステムの応用例について説明する。図10は、リバーブ処理の応用により、より臨場感を高めた例を示している。図10では、R(右)側のシステムを図示しているが、L(左)側にも図10と対称なシステム構成があるものとする。通常は、L側とR側の再生デバイスは独立であり、かつ双方は有線で繋がっていない。図10に示す構成例では、L側とR側の音響出力装置100は、無線通信部412で接続されて双方向通信が可能とされている。なお、L側とR側の音響出力装置100は、スマートフォン等を中継器として双方向通信が可能とされていても良い。
 図10のリバーブ処理は、ステレオリバーブを実現するものである。右側の音響出力装置100の再生に関しては、右側のマイク400と左側のマイク400のマイク信号のそれぞれに異なるリバーブ処理を施して、その加算を再生出力とする。同様に、左側の音響出力装置100の再生に関しては、左側のマイク400と右側のマイク400のマイク信号のそれぞれに異なるリバーブ処理を施して、その加算を再生出力とする。
 図10において、L側のマイク400で聴取された音は、R側の無線通信部412で受信され、DSP404bでリバーブ処理される。一方、R側のマイク400で聴取された音は、マイクアンプ・ADC402で増幅され、AD変換された後、DSP404aでリバーブ処理される。リバーブ処理された左右のマイク信号は、加算部(重畳部)414にて加算される。これにより、一方の耳の側で聴こえた音が他方の耳側に重畳されるため、例えば左右に反射する音を聴く場合などに臨場感を高めることができる。
 図10において、L側とR側のマイク信号の送受信は、Bluetooth(登録商標)(LE)、WiFi、独自900MHz等の通信方式、NFMI(補聴器などで使われている近接場電磁誘導)、赤外線通信等の方法で行うことができるが、有線での送受信でも構わない。また、L-R間では、マイク信号以外にも、ユーザが選択したリバーブ種に関する情報も共有(同期)しておくことが望ましい。
 次に、映像コンテンツをベースにHMD(Head Mounted Display)表示を組み合わせた例について説明する。図11及び図12に示す例では、コンテンツは、例えばメディア(Media;ディスクやメモリ等)に格納されているものとし、またコンテンツがクラウドから送られてローカル側の機器で一時的に記憶されている場合も含むものとする。コンテンツは、ゲームのようにインタラクティブ性が高いものも含むものとする。コンテンツのうち、映像部分に関しては、映像処理部420を経由してHMD600で表示される。この時、例えばコンテンツ上のシーンで、教会やホールのような残響の大きな場所に入った場合は、その場所の中での人物の声や物音に対して、コンテンツ制作時にオフラインでリバーブ処理を施していたり、または再生機器側でリバーブ処理(レンダリング)することが考えられる。しかし、この時にユーザ自身が発した声や、現実の周囲の音が聞こえてしまうと、コンテンツへの没入感を一気に阻害することになる。
 本実施形態に係るシステムでは、コンテンツに含まれる映像や音声、もしくはメタデータを解析して、そのシーンで使われる音場環境を推定することで、ユーザ自身が発した声や、現実の周囲の音を、シーンに合わせた音場環境に適合させる。シーン制御情報生成部422は、推定された音場環境、またはメタデータで指定された音場環境に応じたシーン制御情報を生成する。そして、シーン制御情報に応じて音場環境に一番近いリバーブ種別がリバーブ種別データベース408から選択され、選択されたリバーブ種別に基づいてDSP404でリバーブ処理が行われる。リバーブ処理が行われたマイク信号は加算部426に入力され、音声・Audio処理部424で処理されたコンテンツの音声に畳み込まれて音響出力装置100により再生される。この時、コンテンツの音声に畳み込まれる信号は、コンテンツの音場環境に応じてリバーブ処理が成されたマイク信号であるため、コンテンツを視聴しながら自分の声を発する、周囲で現実の音が発生する、などの音事象が起こった場合に、コンテンツ内で提示される音場環境に応じた残響、反響を伴ってユーザ自身に聴取されることになる。従って、ユーザ自身が、提示されたコンテンツの音場環境内に存在するかのように感じることができ、よりコンテンツへ没入することが可能となる。
 図11では、ゲーム等を含む予め作成済みのコンテンツをHMD600で表示する場合を想定している。一方、図11に近いユースケースとして、HMD600にカメラ等を組み合わせたり、ハーフミラーを用いたりすることで、周囲の実際の情景(環境)をHMD600に表示した上で、CGで作られたオブジェクトをスーパーインポーズなどで合わせて表示するなどして、シースルー(See Through)体験やARシステムを提供できるシステムがある。
 この場合でも、例えば周囲の状況の映像をベースとしつつ、音場を実際の場所とは異なる音場環境にしたい場合は、図11と同様のシステムにより構築することができる。この場合は、図12に示すように、図11と異なり、周囲の状況(物を落とす、誰かが話をする)などがユーザに見えているため、周囲の状況(周囲環境)をベースとした音場表現が視覚とともに得られ、よりリアリティのあるものとなる。なおシステムとしては、図11、図12は同じものである。
 次に、複数のユーザが本実施形態に係る音響出力装置100を使用して、通信、通話する場合について説明する。図13は、通話する相手の音響環境をシェアしながら通話する場合を示す模式図である。この機能は、ユーザの選択によりON/OFFの設定が可能とする。上述した構成例では、リバーブ種別はユーザ自身が指定したり、コンテンツにより指定、推定したりしていたが、図13では、音響出力装置100を使う2者での通話を想定して、双方の通話者が相手の音場環境をリアルに体験する。
 この場合、相手側の音場環境情報が必要となるが、これは通話する相手側のマイク400で聴取したマイク信号を解析して求めても良いし、GPS経由の地図情報から相手のいる場所、建物を推定して残響の度合を求めても良い。このために、通信を行う両者は、自分の周辺の音響環境を示す情報を、通話音声とは別に相手に送信する。一方のユーザ側では、自分の声の反響を他方のユーザから取得した音響環境に基づいてリバーブ処理することで、他方のユーザ(通話相手)が存在する音場の中で自分の声を発したように体感することができる。
 図13において、ユーザが通話して自分の声を相手に送話するときには、左右2つのマイク400L,400Rを使って自分の声を周囲の音とともに聴取し、左右のマイクアンプ・ADC402L,402Rで処理されたマイク信号を、無線通信部412を介して相手側に送信する。この際、音響環境取得部(音響環境情報取得部)430は、例えば、GPS経由の地図情報から相手のいる場所、建物を推定して残響の度合を求め、音響環境情報として取得する。無線通信部412は、音響環境取得部430が取得した音響環境情報を、マイク信号とともに相手側に送信する。マイク信号を受信した相手側では、マイク信号とともに受信した音響環境情報に基づいて、リバーブ種別データベース408からリバーブ種別を選択して、自身のマイク信号に対して左右のDSP404L,404R404でリバーブ処理を行い、相手側から受信したマイク信号を加算部428R,428Lによりリバーブ処理後の信号に畳み込む。
 これにより、一方のユーザは、自身の声を含む周囲音については、相手側の音響環境情報に基づいて相手側の音響環境に合わせたリバーブ処理が行われ、一方、相手側の音声については、相手側の音響環境に応じた音声が加算部428R,428Lにて加算されるため、相手側と同じ音場環境(例えば、教会、ホールなど)にあたかも自身が居て通話しているような感覚を得ることができる。
 なお、図13において、無線通信部412とマイクアンプ・ADC402L,402Rとの接続、無線通信部412と加算部428L,428Rとの接続は、無線又は有線により接続する。無線の場合、例えばBluetooth(登録商標)(LE)、NFMIなどの短距離無線でも良く、短距離無線は中継を挟んでも良い。
 一方、図14に示すように、送話のための自分の声に関しては、ビームフォーミング(Beam Forming)技術を使うなど、声に特化してモノラルとして抽出しても良い。ビームフォーミングは、ビームフォーミング部(BF)432により行われる。この場合には、モノラル化して送話が可能になるため、図13と比較して無線帯域を使わないというメリットがある。この場合は、送話を受け取った側でLRの再生デバイスから、そのまま音声をモノラル再生すると、頭内定位してしまい、自然感が失われてしまう。このため、送話信号を受け取った側では、例えば、HRTF部434によりHRTF(頭部伝達関数)を畳み込んで、任意の位置に仮想音像定位させることで、音像を頭外に定位させるようにすること等も可能である。相手の音像位置は、あらかじめプリセットされていても良いし、ユーザが任意に設定できるようにしても良いし、映像と合わせても良い。これにより、例えば、ユーザのすぐ隣で通話する相手の音像がする、などの体験が可能となる。もちろん通話する相手が隣に存在するかのような映像表現を伴っても良い。
 図14に示す例では、仮想音像定位させた後の音声信号を加算器428L,428Rでマイク信号に加算し、リバーブ処理を行っている。これにより、仮想音像定位させた音声を通信相手の音響環境の音声に戻すことができる。
 一方、図15に示す例では、仮想音像定位させた後の音声信号を加算器428L,428Rでリバーブ処理後のマイク信号に加算している。この場合、仮想音像定位させた音声は通信相手の音響環境に対応するものではないが、所望の位置に音像定位させることで、通信相手の音声を明確に区別することが可能となる。
 図14、図15では、2人による通話を想定していたが、これを多人数化することも考えられる。図16及び図17は、多人数による通話の例を示す模式図である。例えば、この場合は、通話開始者を環境ハンドルユーザとして、そのハンドルユーザが指定する音場を、全員に付与することで、各人(環境ハンドルユーザ、ユーザA~G)が特定の音場環境の中で会話するような体験をもたらすことが可能である。ここで設定する音場は、必ずしも通話対象の誰かの音場でなくても良く、完全な人工的な仮想空間の音場でも良い。ここで、システムとしての臨場感向上のため、各人がアバターを設定し、HMD等による映像補助表現を使っても良い。
 多人数化の場合、図17に示すように、スマートフォンなどの電子機器700を用いて、無線通信部436による通信を行うこともできる。図17に示す例では、環境ハンドルユーザが各ユーザA,B,C,・・・の電子機器700の無線通信部440へ音響環境を設定するための音響環境情報を送る。音響環境情報を受信したユーザAの電子機器700は、音響環境情報に基づいて、リバーブ種別データベース408の中から最適な音響環境を設定し、左右のマイク400で集音したマイク信号に対してリバーブ処理部404L,404Rによりリバーブ処理を行う。
 一方、ユーザA,B,C,・・・の電子機器700は、無線通信部436を介して互いに通信を行う。ユーザAの電子機器700の無線通信部436が受信した他のユーザの音声は、音響環境伝達関数(HRTF L,R)がフィルタ(音響環境調整部)438によって畳み込まれる。HRTFを畳み込むことで音源406の音源情報を仮想的な空間に配置することができ、あたかも現実と同空間にその音源情報が存在するように音を空間配置することができる。音響環境伝達関数L,Rには、主に反射音、残響の情報が含まれており、理想的には、実際の再生環境を想定して、または実際の再生環境に近い環境を想定して、適切な2点間(例えば仮想スピーカの位置と耳の位置との2点間)の伝達関数(インパルス応答)などを使うことが望ましい。なお、音響環境伝達関数L,RのLとRは、同じ環境といえども、異なる2点間同士のものを使うなど、異なる関数とすることで、より音響環境のリアリティが増すものとなる。
 例えば、ユーザA,B,C,・・・が室内で会議を行っている場合を想定して、音響環境伝達関数L,Rをフィルタ438によって畳み込むことで、ユーザA,B,C,・・・が遠隔地にいる場合であっても、あたかも一室で会議をしているような音声を聴くことができる。
 他のユーザB,C,・・・の音声は、加算器442により加算され、更にリバーブ処理後の周囲音が加算されて、アンプ444により増幅されて、音響出力装置100からユーザAの耳に出力される。他のユーザB,C,・・・の電子機器700においても、同様の処理が行われる。
 図17に示す例によれば、各ユーザA,B,C,・・・は、フィルタ438によって設定された音響環境で会話することができ、更に、自分の声や自身の周辺環境の音は、環境ハンドルユーザが設定した特定の音響環境の音として聴くことができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1) 周囲の音響による音声信号を取得する音響取得部と、
 前記音声信号に対し、リバーブ処理を行うリバーブ処理部と、
 前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力する音響出力部と、
 を備える、音響出力装置。
(2) 前記リバーブ処理部は、インパルス応答の直接音成分を除いて前記リバーブ処理を行う、前記(1)に記載の音響出力装置。
(3) 前記音響出力部は、一端が聴取者の外耳道入口付近に配置される中空構造の音導部の他端に音響を出力する、前記(1)又は(2)に記載の音響出力装置。
(4) 前記音響出力部は、前記聴取者の耳を外部から密閉した状態で音響を出力する、前記(1)又は(2)に記載の音響出力装置。
(5) 前記音響出力部は、聴取者の左右の耳のそれぞれの側で前記音声信号を取得し、
 前記リバーブ処理部は、聴取者の左右の耳の一方の側で取得された前記音声信号をリバーブ処理する第1のリバーブ処理部と、聴取者の左右の耳の他方の側で取得された前記音声信号をリバーブ処理する第2のリバーブ処理部と、
 前記第1のリバーブ処理部によりリバーブ処理された前記音声信号と、前記第2のリバーブ処理部によりリバーブ処理された前記音声信号を重畳する重畳部を備え、
 前記音響出力部は、前記重畳部により重畳された前記音声信号による音響を出力する、前記(1)~(4)のいずれかに記載の音響出力装置。
(6) 前記音響出力部は、コンテンツの音響を視聴者の耳に出力し、
 前記リバーブ処理部は、前記コンテンツの音響環境に合わせて前記リバーブ処理を行う、前記(1)~(5)のいずれかに記載の音響出力装置。
(7) 前記リバーブ処理部は、前記コンテンツの音響環境に基づいて選択されたリバーブ種別に基づいて前記リバーブ処理を行う、前記(6)に記載の音響出力装置。
(8) 前記コンテンツの音声信号を前記リバーブ処理後の前記音声信号に重畳する重畳部を備える、前記(6)に記載の音響出力装置。
(9) 通信相手の周囲の音響環境を表す音響環境情報を取得する音響環境情報取得部を備え、
 前記リバーブ処理部は、音響環境情報に基づいて前記リバーブ処理を行う、前記(1)に記載の音響出力装置。
(10) 通信相手から受信した音声信号を前記リバーブ処理後の前記音声信号に重畳する重畳部を備える、前記(9)に記載の音響出力装置。
(11) 通信相手から受信した音声信号の音像位置を調整する音響環境調整部と、
 前記音響取得部が取得した前記音声信号に対して、前記音響環境調整部により音像位置が調整された信号を重畳する重畳部と、を備え、
 前記リバーブ処理部は、前記重畳部により重畳された音声信号をリバーブ処理する、前記(9)に記載の音響出力装置。
(12) 通信相手から受信したモノラル音声信号の音像位置を調整する音響環境調整部と、
 前記音響環境調整部により音像位置が調整された信号を前記リバーブ処理後の前記音声信号に重畳する重畳部を備える、前記(9)に記載の音響出力装置。
(13) 周囲の音響による音声信号を取得することと、
 前記音声信号に対し、リバーブ処理を行うことと、
 前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力することと、
 を備える、音響出力方法。
(14) 周囲の音響による音声信号を取得する手段と、
 前記音声信号に対し、リバーブ処理を行う手段と、
 前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力する手段と、
 としてコンピュータを機能させるためのプログラム。
(15) 周囲の音響環境を表す音響環境情報を取得する音響取得部と、通信相手である第2の音響出力装置の周囲の音響環境を表す音響環境情報を前記第2の音響出力装置から取得する音響環境情報取得部と、前記音響環境情報に応じて、前記音響取得部で取得された音声信号に対してリバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた音声信号による音響を聴取者の耳に出力する音響出力部と、を備える第1の音響出力装置と、
 周囲の音響環境を表す音響環境情報を取得する音響取得部と、通信相手である前記第1の音響出力装置の周囲の音響環境を表す音響環境情報を取得する音響環境情報取得部と、前記音響環境情報に応じて、前記音響取得部で取得された音声信号に対してリバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた音声信号による音響を聴取者の耳に出力する音響出力部と、を備える前記第2の音響出力装置と、
 を備える、音響システム。
 100  音響出力装置
 110  音響発生部
 120  音導部
 400  マイク
 404  DSP
 414,426,428L,428R
 430  音響環境取得部
 438  フィルタ

Claims (15)

  1.  周囲の音響による音声信号を取得する音響取得部と、
     前記音声信号に対し、リバーブ処理を行うリバーブ処理部と、
     前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力する音響出力部と、
     を備える、音響出力装置。
  2.  前記リバーブ処理部は、インパルス応答の直接音成分を除いて前記リバーブ処理を行う、請求項1に記載の音響出力装置。
  3.  前記音響出力部は、一端が聴取者の外耳道入口付近に配置される中空構造の音導部の他端に音響を出力する、請求項1に記載の音響出力装置。
  4.  前記音響出力部は、前記聴取者の耳を外部から密閉した状態で音響を出力する、請求項1に記載の音響出力装置。
  5.  前記音響出力部は、聴取者の左右の耳のそれぞれの側で前記音声信号を取得し、
     前記リバーブ処理部は、聴取者の左右の耳の一方の側で取得された前記音声信号をリバーブ処理する第1のリバーブ処理部と、聴取者の左右の耳の他方の側で取得された前記音声信号をリバーブ処理する第2のリバーブ処理部と、
     前記第1のリバーブ処理部によりリバーブ処理された前記音声信号と、前記第2のリバーブ処理部によりリバーブ処理された前記音声信号を重畳する重畳部を備え、
     前記音響出力部は、前記重畳部により重畳された前記音声信号による音響を出力する、請求項1に記載の音響出力装置。
  6.  前記音響出力部は、コンテンツの音響を視聴者の耳に出力し、
     前記リバーブ処理部は、前記コンテンツの音響環境に合わせて前記リバーブ処理を行う、請求項1に記載の音響出力装置。
  7.  前記リバーブ処理部は、前記コンテンツの音響環境に基づいて選択されたリバーブ種別に基づいて前記リバーブ処理を行う、請求項6に記載の音響出力装置。
  8.  前記コンテンツの音声信号を前記リバーブ処理後の前記音声信号に重畳する重畳部を備える、請求項6に記載の音響出力装置。
  9.  通信相手の周囲の音響環境を表す音響環境情報を取得する音響環境情報取得部を備え、
     前記リバーブ処理部は、音響環境情報に基づいて前記リバーブ処理を行う、請求項1に記載の音響出力装置。
  10.  通信相手から受信した音声信号を前記リバーブ処理後の前記音声信号に重畳する重畳部を備える、請求項9に記載の音響出力装置。
  11.  通信相手から受信した音声信号の音像位置を調整する音響環境調整部と、
     前記音響取得部が取得した前記音声信号に対して、前記音響環境調整部により音像位置が調整された信号を重畳する重畳部と、を備え、
     前記リバーブ処理部は、前記重畳部により重畳された音声信号をリバーブ処理する、請求項9に記載の音響出力装置。
  12.  通信相手から受信したモノラル音声信号の音像位置を調整する音響環境調整部と、
     前記音響環境調整部により音像位置が調整された信号を前記リバーブ処理後の前記音声信号に重畳する重畳部を備える、請求項9に記載の音響出力装置。
  13.  周囲の音響による音声信号を取得することと、
     前記音声信号に対し、リバーブ処理を行うことと、
     前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力することと、
     を備える、音響出力方法。
  14.  周囲の音響による音声信号を取得する手段と、
     前記音声信号に対し、リバーブ処理を行う手段と、
     前記リバーブ処理が行われた前記音声信号による音響を聴取者の耳の近傍に出力する手段と、
     としてコンピュータを機能させるためのプログラム。
  15.  周囲の音響環境を表す音響環境情報を取得する音響取得部と、通信相手である第2の音響出力装置の周囲の音響環境を表す音響環境情報を前記第2の音響出力装置から取得する音響環境情報取得部と、前記音響環境情報に応じて、前記音響取得部で取得された音声信号に対してリバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた音声信号による音響を聴取者の耳に出力する音響出力部と、を備える第1の音響出力装置と、
     周囲の音響環境を表す音響環境情報を取得する音響取得部と、通信相手である前記第1の音響出力装置の周囲の音響環境を表す音響環境情報を取得する音響環境情報取得部と、前記音響環境情報に応じて、前記音響取得部で取得された音声信号に対してリバーブ処理を行うリバーブ処理部と、前記リバーブ処理が行われた音声信号による音響を聴取者の耳に出力する音響出力部と、を備える前記第2の音響出力装置と、
     を備える、音響システム。
PCT/JP2017/000070 2016-02-01 2017-01-05 音響出力装置、音響出力方法、プログラム、音響システム Ceased WO2017134973A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017565437A JP7047383B2 (ja) 2016-02-01 2017-01-05 音響出力装置、音響出力方法、プログラム
US16/069,631 US10685641B2 (en) 2016-02-01 2017-01-05 Sound output device, sound output method, and sound output system for sound reverberation
EP19200583.3A EP3621318B1 (en) 2016-02-01 2017-01-05 Sound output device and sound output method
EP17747137.2A EP3413590B1 (en) 2016-02-01 2017-01-05 Audio output device, audio output method, program, and audio system
CN201780008155.1A CN108605193B (zh) 2016-02-01 2017-01-05 声音输出设备、声音输出方法、计算机可读存储介质和声音系统
US16/791,083 US11037544B2 (en) 2016-02-01 2020-02-14 Sound output device, sound output method, and sound output system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016017019 2016-02-01
JP2016-017019 2016-02-01

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/069,631 A-371-Of-International US10685641B2 (en) 2016-02-01 2017-01-05 Sound output device, sound output method, and sound output system for sound reverberation
US16/791,083 Continuation US11037544B2 (en) 2016-02-01 2020-02-14 Sound output device, sound output method, and sound output system

Publications (1)

Publication Number Publication Date
WO2017134973A1 true WO2017134973A1 (ja) 2017-08-10

Family

ID=59501022

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/000070 Ceased WO2017134973A1 (ja) 2016-02-01 2017-01-05 音響出力装置、音響出力方法、プログラム、音響システム

Country Status (5)

Country Link
US (2) US10685641B2 (ja)
EP (2) EP3413590B1 (ja)
JP (1) JP7047383B2 (ja)
CN (1) CN108605193B (ja)
WO (1) WO2017134973A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019053996A1 (ja) * 2017-09-13 2019-03-21 ソニー株式会社 ヘッドホン装置
WO2019053993A1 (ja) * 2017-09-13 2019-03-21 ソニー株式会社 音響処理装置及び音響処理方法
JP2022538714A (ja) * 2019-06-24 2022-09-06 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 人工現実環境のためのオーディオシステム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108605193B (zh) 2016-02-01 2021-03-16 索尼公司 声音输出设备、声音输出方法、计算机可读存储介质和声音系统
AU2018353008B2 (en) 2017-10-17 2023-04-20 Magic Leap, Inc. Mixed reality spatial audio
CN116781827A (zh) 2018-02-15 2023-09-19 奇跃公司 混合现实虚拟混响
CN112534498B (zh) 2018-06-14 2024-12-31 奇跃公司 混响增益归一化
CN111045635B (zh) * 2018-10-12 2021-05-07 北京微播视界科技有限公司 音频处理方法和装置
KR102790631B1 (ko) * 2019-03-19 2025-04-04 소니그룹주식회사 음향 처리 장치, 음향 처리 방법, 및 음향 처리 프로그램
US11523244B1 (en) * 2019-06-21 2022-12-06 Apple Inc. Own voice reinforcement using extra-aural speakers
CN114424583A (zh) 2019-09-23 2022-04-29 杜比实验室特许公司 混合近场/远场扬声器虚拟化
EP4049466B1 (en) * 2019-10-25 2025-04-30 Magic Leap, Inc. Methods and systems for determining and processing audio information in a mixed reality environment
JP7712061B2 (ja) * 2020-02-19 2025-07-23 ヤマハ株式会社 音信号処理方法および音信号処理装置
JP7524614B2 (ja) * 2020-06-03 2024-07-30 ヤマハ株式会社 音信号処理方法、音信号処理装置および音信号処理プログラム
WO2022113289A1 (ja) 2020-11-27 2022-06-02 ヤマハ株式会社 ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
WO2022113288A1 (ja) 2020-11-27 2022-06-02 ヤマハ株式会社 ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
US12283265B1 (en) * 2021-04-09 2025-04-22 Apple Inc. Own voice reverberation reconstruction
US11140469B1 (en) 2021-05-03 2021-10-05 Bose Corporation Open-ear headphone

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06245299A (ja) * 1993-02-15 1994-09-02 Sony Corp 補聴器
JP2007202020A (ja) * 2006-01-30 2007-08-09 Sony Corp 音声信号処理装置、音声信号処理方法、プログラム
US20140126756A1 (en) * 2012-11-02 2014-05-08 Daniel M. Gauger, Jr. Binaural Telepresence

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371799A (en) * 1993-06-01 1994-12-06 Qsound Labs, Inc. Stereo headphone sound source localization system
US6681022B1 (en) 1998-07-22 2004-01-20 Gn Resound North Amerca Corporation Two-way communication earpiece
JP3975577B2 (ja) 1998-09-24 2007-09-12 ソニー株式会社 インパルス応答の収集方法および効果音付加装置ならびに記録媒体
GB2361395B (en) 2000-04-15 2005-01-05 Central Research Lab Ltd A method of audio signal processing for a loudspeaker located close to an ear
JP3874099B2 (ja) * 2002-03-18 2007-01-31 ソニー株式会社 音声再生装置
US7949141B2 (en) * 2003-11-12 2011-05-24 Dolby Laboratories Licensing Corporation Processing audio signals with head related transfer function filters and a reverberator
CN2681501Y (zh) 2004-03-01 2005-02-23 上海迪比特实业有限公司 一种具有混响功能的手机
WO2006033058A1 (en) * 2004-09-23 2006-03-30 Koninklijke Philips Electronics N.V. A system and a method of processing audio data, a program element and a computer-readable medium
US7184557B2 (en) 2005-03-03 2007-02-27 William Berson Methods and apparatuses for recording and playing back audio signals
CN101138273B (zh) 2005-03-10 2013-03-06 唯听助听器公司 一种用于助听器的耳塞
US20070127750A1 (en) * 2005-12-07 2007-06-07 Phonak Ag Hearing device with virtual sound source
US8036767B2 (en) * 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
US20080273708A1 (en) * 2007-05-03 2008-11-06 Telefonaktiebolaget L M Ericsson (Publ) Early Reflection Method for Enhanced Externalization
EP2337375B1 (en) * 2009-12-17 2013-09-11 Nxp B.V. Automatic environmental acoustics identification
CN202514043U (zh) 2012-03-13 2012-10-31 贵州奥斯科尔科技实业有限公司 一种便携式个人唱歌话筒
WO2015031080A2 (en) * 2013-08-30 2015-03-05 Gleim Conferencing, Llc Multidimensional virtual learning audio programming system and method
US9479859B2 (en) * 2013-11-18 2016-10-25 3M Innovative Properties Company Concha-fit electronic hearing protection device
US10148240B2 (en) * 2014-03-26 2018-12-04 Nokia Technologies Oy Method and apparatus for sound playback control
US9648436B2 (en) * 2014-04-08 2017-05-09 Doppler Labs, Inc. Augmented reality sound system
US9892721B2 (en) 2014-06-30 2018-02-13 Sony Corporation Information-processing device, information processing method, and program
EP3441966A1 (en) * 2014-07-23 2019-02-13 PCMS Holdings, Inc. System and method for determining audio context in augmented-reality applications
HUE056176T2 (hu) * 2015-02-12 2022-02-28 Dolby Laboratories Licensing Corp Fejhallgató virtualizálás
US9565491B2 (en) * 2015-06-01 2017-02-07 Doppler Labs, Inc. Real-time audio processing of ambient sound
EP3657822A1 (en) 2015-10-09 2020-05-27 Sony Corporation Sound output device and sound generation method
CN108605193B (zh) 2016-02-01 2021-03-16 索尼公司 声音输出设备、声音输出方法、计算机可读存储介质和声音系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06245299A (ja) * 1993-02-15 1994-09-02 Sony Corp 補聴器
JP2007202020A (ja) * 2006-01-30 2007-08-09 Sony Corp 音声信号処理装置、音声信号処理方法、プログラム
US20140126756A1 (en) * 2012-11-02 2014-05-08 Daniel M. Gauger, Jr. Binaural Telepresence

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019053996A1 (ja) * 2017-09-13 2019-03-21 ソニー株式会社 ヘッドホン装置
WO2019053993A1 (ja) * 2017-09-13 2019-03-21 ソニー株式会社 音響処理装置及び音響処理方法
JPWO2019053993A1 (ja) * 2017-09-13 2020-08-27 ソニー株式会社 音響処理装置及び音響処理方法
JP7070576B2 (ja) 2017-09-13 2022-05-18 ソニーグループ株式会社 音響処理装置及び音響処理方法
US11350203B2 (en) 2017-09-13 2022-05-31 Sony Corporation Headphone device
US11445289B2 (en) 2017-09-13 2022-09-13 Sony Corporation Audio processing device and audio processing method
JP2022538714A (ja) * 2019-06-24 2022-09-06 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 人工現実環境のためのオーディオシステム
JP7482147B2 (ja) 2019-06-24 2024-05-13 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 人工現実環境のためのオーディオシステム

Also Published As

Publication number Publication date
CN108605193B (zh) 2021-03-16
EP3413590A4 (en) 2018-12-19
JPWO2017134973A1 (ja) 2018-11-22
CN108605193A (zh) 2018-09-28
EP3621318A1 (en) 2020-03-11
JP7047383B2 (ja) 2022-04-05
US10685641B2 (en) 2020-06-16
US20190019495A1 (en) 2019-01-17
US11037544B2 (en) 2021-06-15
US20200184947A1 (en) 2020-06-11
EP3413590B1 (en) 2019-11-06
EP3413590A1 (en) 2018-12-12
EP3621318B1 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
US11037544B2 (en) Sound output device, sound output method, and sound output system
US11902772B1 (en) Own voice reinforcement using extra-aural speakers
CN114125661B (zh) 声音再现系统和头戴式设备
Ranjan et al. Natural listening over headphones in augmented reality using adaptive filtering techniques
US10812926B2 (en) Sound output device, sound generation method, and program
JP5894634B2 (ja) 個人ごとのhrtfの決定
CN107852563B (zh) 双耳音频再现
JP3435141B2 (ja) 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
JPH10500809A (ja) バイノーラル信号合成と頭部伝達関数とその利用
EP2243136B1 (en) Mediaplayer with 3D audio rendering based on individualised HRTF measured in real time using earpiece microphones.
CN112956210B (zh) 基于均衡滤波器的音频信号处理方法及装置
WO2020176532A1 (en) Method and apparatus for time-domain crosstalk cancellation in spatial audio
Kates et al. Integrating a remote microphone with hearing-aid processing
JP6147603B2 (ja) 音声伝達装置、音声伝達方法
JP6389080B2 (ja) ボイスキャンセリング装置
JP6637992B2 (ja) 音響再生装置
CN117294980A (zh) 用于声学透传的方法和系统
JP2022128177A (ja) 音声生成装置、音声再生装置、音声再生方法、及び音声信号処理プログラム
JP6972858B2 (ja) 音響処理装置、プログラム及び方法
Watanabe et al. Effects of Acoustic Transparency of Wearable Audio Devices on Audio AR
US20250016519A1 (en) Audio device with head orientation-based filtering and related methods
JP2020099094A (ja) 信号処理装置
JP2006352728A (ja) オーディオ装置
Møller et al. Directional characteristics for different in-ear recording points
CN120380783A (zh) 目标响应曲线数据、目标响应曲线数据的生成方法、放音装置、声音处理装置、声音数据、声学系统、目标响应曲线数据的生成系统、程序、以及记录介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17747137

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017565437

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017747137

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017747137

Country of ref document: EP

Effective date: 20180903