[go: up one dir, main page]

WO2004028161A1 - 手話通訳システムおよび手話通訳方法 - Google Patents

手話通訳システムおよび手話通訳方法 Download PDF

Info

Publication number
WO2004028161A1
WO2004028161A1 PCT/JP2003/011757 JP0311757W WO2004028161A1 WO 2004028161 A1 WO2004028161 A1 WO 2004028161A1 JP 0311757 W JP0311757 W JP 0311757W WO 2004028161 A1 WO2004028161 A1 WO 2004028161A1
Authority
WO
WIPO (PCT)
Prior art keywords
sign language
terminal
deaf
video
language interpreter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2003/011757
Other languages
English (en)
French (fr)
Inventor
Nozomu Sahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ginganet Corp
Original Assignee
Ginganet Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ginganet Corp filed Critical Ginganet Corp
Priority to JP2004537564A priority Critical patent/JPWO2004028161A1/ja
Priority to CA002499097A priority patent/CA2499097A1/en
Priority to EP03797602A priority patent/EP1542465A4/en
Priority to AU2003264434A priority patent/AU2003264434B2/en
Priority to US10/527,916 priority patent/US20060234193A1/en
Priority to HK05112171.1A priority patent/HK1077689A1/zh
Publication of WO2004028161A1 publication Critical patent/WO2004028161A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2061Language aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42025Calling or Called party identification service
    • H04M3/42085Called party identification service
    • H04M3/42102Making use of the called party identifier
    • H04M3/4211Making use of the called party identifier where the identifier is used to access a profile
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/563User guidance or feature selection

Definitions

  • the present invention provides a sign language interpreting system and a method for enabling a deaf person who can sign language to talk with a non-deaf person who cannot sign language using a telephone.
  • a sign language interpreter that can provide videophone administrative services to persons with deafness even if there is no resident who can sign language at government offices, hospitals, police, etc. System and sign language interpretation.
  • the videophone terminal used by the deaf and the videophone terminal and sign language interpreter used by the non-deaf person It is necessary to connect the videophone terminals used by each other to each other.
  • a multipoint connection device MCU that connects three or more videophone terminals to each other and conducts a video conference, and It was necessary to set up a video conference by connecting the MCU from the videophone terminals of non-deaf and sign language interpreters.
  • deaf and non-deaf and sign language interpreters need to consult with the MCU in advance and make reservations with the MCU. It is practically difficult to discuss in advance among deaf people.
  • the main object of the present invention is to provide a sign language interpreter system and a sign language interpreter that can respond to emergencies without the need for an aggressor, a non-deaf person, and a sign language interpreter to consult in advance and reserve an MCU. Is to provide a way. Disclosure of the invention
  • the sign language interpreting system includes a video phone terminal for a deaf person used by a deaf person who can sign language, a video phone terminal for a non deaf person used by a non deaf person who cannot sign language, A sign language interpreting system for interconnecting a sign language interpreter TV telephone terminal used by a sign language interpreter and providing a sign language interpreter in a video telephone conversation between a deaf person and a non-deaf person, It has a sign language interpreter registration table in which the terminal number of the sign language interpreter TV telephone terminal is registered.
  • a function for accepting calls from either the consumer videophone terminal or non-deaf videophone terminal, and a function for prompting the caller videophone terminal that has accepted the call to enter the terminal number of the call destination The function to retrieve the sign language interpreter's terminal number from the sign language interpreter registration table, the function to call the sign language interpreter's videophone terminal based on the retrieved sign language interpreter's terminal number, and the acquired called terminal Connection means having a function of calling a called videophone terminal by a number, and at least a video from a non-deaf videophone terminal and a video from a sign language interpreter videophone terminal for a deaf person's videophone terminal And a function of transmitting at least a video from a videophone terminal for a deaf and a voice from a videophone terminal for a sign language interpreter to a non-deaf videophone terminal.
  • Communication means having a function of transmitting at least a video from a video telephone terminal for a deaf and a voice from
  • a call from either a deaf or non-deaf terminal automatically connects the other party's terminal with the sign language interpreter's terminal and the video and audio required for sign language interpretation.
  • the delegates, non-deaf and sign language interpreters can have videophone conversations via sign language interpreters without prior consultation.
  • the sign language interpreter since it has a function to retrieve and call the sign language interpreter's terminal number registered in the sign language interpreter registration table, the sign language interpreter can respond anywhere, as long as it can be called, and it is flexible and efficient A simple sign language interpreting system can be configured.
  • the sign language interpreting system according to claim 2 is the sign language interpreting system according to claim 1, wherein selection information for selecting a sign language interpreter is registered in a sign language interpreter registration table, and the connection means is a caller.
  • the sign language interpreting system described in claim 3 is the sign language interpreting system described in claim 1 or claim 2.
  • the sign language interpreter registration table has a reception flag indicating whether or not a sign language interpreter can be accepted.
  • the registered means has a function of retrieving the terminal number of the sign language interpreter that can be accepted by referring to the reception flag in the sign language interpreter registration table.
  • a sign language interpreter that can be accepted can be automatically selected and called, thereby eliminating unnecessary calls. Therefore, a more flexible and efficient sign language interpreting system can be configured.
  • a sign language interpreting system is the sign language interpreting system according to any one of claims 1 to 3, wherein the connection means has a function of generating a text message to be transmitted to each terminal.
  • the communication means has a function of transmitting the generated text message to each terminal.
  • the sign language interpreting system is the sign language interpreting system according to claim 4, wherein the connection means has a function of generating a voice message to be transmitted to a non-deaf terminal.
  • the communication means has a function of transmitting the generated voice message to the videophone terminal for non-deaf people.
  • the sign language interpreting system is the sign language interpreting system according to any one of claims 1 to 5, wherein the connection means registers terms used during a dialogue according to an instruction from each terminal. And a function of extracting a term registered according to a command from each terminal to generate a telop, and the communication means has a function of transmitting the generated telop to each terminal.
  • telops By registering terms that are difficult for sign language interpretation in advance, telops can be displayed on the screen of each terminal, and a more rapid and accurate videophone conversation can be realized.
  • a sign language interpreting system is the sign language interpreting system according to any one of claims 1 to 6, wherein a communication means is provided for a non-deaf person to a television telephone terminal for a deaf person. It has the function of sending one of the video from the videophone terminal and the video from the videophone terminal for sign language interpreters as the main screen, and transmitting the synthesized video as the other child screen. .
  • the image of the non-deaf person and the image of the sign-language interpreter are simultaneously displayed on the screen of the video phone terminal for the deaf by picture-in-picture, so that the deaf person can see the face of the non-deaf person. It can read the sign language of a sign language interpreter.
  • the sign language interpreting system according to claim 8 is the sign language interpreting system according to any one of claims 1 to 7, wherein the communication means is provided for a non-deaf person's television telephone terminal.
  • the video from the videophone terminal is used as the main screen, and the video from the signing interpreter's videophone terminal is synthesized as the subscreen. It has a sending function.
  • the image of the deaf person and the image of the sign language interpreter are simultaneously displayed on the screen of the video phone terminal for non-deaf people in a picture-in-picture manner.
  • the expression of the sign language interpreter can be confirmed while watching, and the interpretation of the voice interpreted by the sign language interpreter becomes easy.
  • a sign language interpreting system is the sign language interpreting system according to any one of claims 1 to 8, wherein the communication means is for a deaf person to a sign language interpreter television telephone terminal. It has a function of transmitting an image obtained by synthesizing an image from a videophone terminal and an image from a non-deaf person.
  • the images of the deaf and non-deaf are simultaneously displayed on the screen of the sign-language interpreter's videophone terminal, so that the sign-language interpreter can read the sign language of the deaf and simultaneously display the expression of the non-deaf It can be confirmed and the voice of non-deaf people can be easily read.
  • the sign language interpreting method comprises: a video phone terminal for a deaf person used by a deaf person who can sign language; a video phone terminal for a non deaf person used by a non deaf person who cannot sign language; A method of providing a sign language interpreter in a video phone conversation between a deaf person and a non-deaf person by interconnecting a sign language interpreter videophone terminal used by a sign language interpreter.
  • a call from either the video phone terminal for the deaf or the non-deaf video phone terminal automatically connects the terminal of the other party with whom the user wants to talk and the sign language interpreter's terminal to perform sign language interpretation. Necessary video and audio communication is performed, so that deaf persons, non-deaf persons, and sign language interpreters can conduct videophone conversations through sign language interpreters without consultation in advance.
  • the sign language interpreter since it has a function to retrieve and call the sign language interpreter's terminal number registered in the sign language interpreter registration table, the sign language interpreter can respond anywhere, as long as it can be called, and it is flexible and efficient A simple sign language interpreting system can be configured.
  • FIG. 1 is a system configuration diagram of a sign language interpreting system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of an image displayed on each screen of a deaf person terminal, a non-deaf person terminal, and a sign language interpreter terminal by the sign language interpreting system of the present invention.
  • FIG. 3 is a processing flowchart of a control device of the sign language interpreting system according to one embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of a sign language interpreter registration table.
  • FIG. 5 is a diagram showing an example of a screen for prompting input of a terminal number of a call destination.
  • FIG. 6 is a diagram showing an example of a screen for prompting input of sign language interpreter selection conditions.
  • FIG. 7 is a diagram showing an example of a screen displaying a candidate list of sign language interpreters.
  • FIG. 8 is a system configuration diagram of a sign language interpreting system according to another embodiment of the present invention.
  • FIG. 9 is a diagram showing an example of a connection destination table.
  • FIG. 10 is a processing flowchart of a control device of a sign language interpreting system according to another embodiment of the present invention.
  • FIG. 1 shows a system configuration diagram of a sign language interpreting system according to an embodiment of the present invention.
  • This embodiment shows an example of a system configuration in a case where each terminal used by a deaf person, a non-deaf person, and a sign language interpreter is a telephone type videophone terminal connected to a public telephone line.
  • reference numeral 100 denotes a sign language interpreting system installed at a sign language interpreting center that provides a sign language interpreting service, and a video telephone terminal for deaf people used by deaf people via a public telephone line 200 ( (Hereinafter referred to as a deaf person's terminal) 3 0 0 and a non-deaf person's videophone terminal (hereinafter referred to as a non-deaf person's terminal) 3 1 0 and a sign language used by a sign language interpreter
  • a video telephone terminal for interpreters (hereinafter referred to as a sign language interpreter terminal) is connected to provide a video telephone conversation service between deaf and non-deaf persons via a sign language interpreter. Things.
  • the deaf person terminal 300, the non-deaf person terminal 310, and the sign language interpreter terminal 320 are television cameras 300a, 310a, and 320a, respectively, for imaging each user, and a display for displaying received images. Screens 300b, 310b, and 320b, and dial pads 300c, 310c, and 320c for inputting numbers and information are provided.
  • the non-deaf terminal 310 and the sign language interpreter terminal 320 are provided with headsets 310d and 320d for inputting and outputting voices to and from the user. Hand-held handsets are used for input and output of voice in ordinary telephone-type terminals.However, in this case, sign language is used, and hands must be able to move freely. The following description assumes that a headset that is fixed to the head is used. Note that a headset is not shown in the deaf person terminal 300, but in the case where an attendant is present or the like, a voice call may be used together using the headset.
  • a video telephone terminal connected to a public line for example, there is an ISDN video telephone terminal compliant with IT 11_ Recommendation: ⁇ . 320, but the present invention is not limited to this and uses a unique protocol. You may use a videophone terminal.
  • the public telephone line includes a wireless telephone line
  • the videophone terminal may be a mobile phone or a mobile terminal having a videophone function.
  • the sign language interpreting system 100 includes a deaf terminal line interface (hereinafter, the interface is abbreviated as I ZF) 120 for connecting to a deaf terminal and a non-deaf terminal for connecting to a non-deaf terminal.
  • Terminal IZF 140 and a sign language interpreter terminal line I ZF 160 for connection to the sign language interpreter terminal, multiplexing and demultiplexing video, audio, and data signals, respectively.
  • the audio codecs for compression and decompression are connected to 126,146,166.
  • each line I / F, each multiplexing / demultiplexing device, each video codec, and each audio codec correspond to the protocol used by each terminal.
  • the video input of the video codec 124 for the deaf terminal the video output of the video codec 144 for the non-deaf terminal and the video codec 1664 for the sign language interpreter terminal are included.
  • a video synthesizing device 128 for synthesizing the output and the output of the telop memory 132 for the deaf terminal is connected.
  • Speech codec for deaf terminal 1 2 6 includes voice codec for non-deaf terminal 1 4 6 speech output and speech codec for sign language interpreter terminal 1 6 6
  • a speech synthesizer 130 for synthesizing the speech output with the speech synthesizer is connected.
  • a deaf person's terminal basically does not perform input / output of voice
  • the speech codec 126 and the speech synthesizer 130 for the deaf person terminal can be omitted. It is preferable to provide a voice communication function because there may be a case where it is desired to transmit the environmental sound of the person to the non-deaf person terminal or a case where the deaf person has an attendant.
  • the video codec for non-deaf user terminals 144 The video input for the deaf terminal codec 124 and the codec for sign language interpreter terminal video output 164 A video synthesizing device 148 for synthesizing the output and the output of the telop memory for non-deaf person's terminal 152 is connected.
  • the speech input of the speech codec for non-deaf terminals 146 includes the speech output of speech codec for deaf terminals 126 and the speech output of speech codec 166 for sign language interpreter terminals. Is connected to the speech synthesizer 150 that synthesizes the sound.
  • the display of the sign language interpreter's image can be omitted on non-deaf terminals.
  • displaying a sign language interpreter's image makes it easier to interpret the voice interpreted by the sign language interpreter, so it is preferable to be able to synthesize the sign language interpreter's image.
  • the video codec for sign language interpreter terminals 164 The video input of 64 includes a video codec for deaf terminals 124 The video output of 24 and the video codec for non-deaf terminals 144 A video synthesizing device 168 for synthesizing the output and the output of the telop memory 172 for the sign language interpreter terminal is connected.
  • the speech input of speech codec 166 for sign language interpreter terminals includes the speech output of speech codec 126 for deaf terminals and the speech output of speech codec 146 for non-deaf terminals. Is connected to a speech synthesizer 170 for synthesizing.
  • the sign language interpreter terminal can omit the display of images of non-deaf people, but by displaying the images of non-deaf people, it is possible to interpret the voice of the non-deaf people when sign language interpretation is performed. Therefore, it is preferable to be able to synthesize an image of a non-deaf person.
  • the sign language interpreter system 100 has a sign language interpreter table 18 2 in which the terminal numbers of the sign language interpreter terminals used by the sign language interpreter are registered, and each line I ZF 120, 140, 16 0, each multiplexing / demultiplexing device 1 2 2, 1 4 2, 1 6 2, each video synthesizing device 1 2, 8, 1 48, 1 68, each audio synthesizing device 1 3 0, 1 5 0, 1 7 0, having a control device 180 connected to each of the telop memories 13 2, 15 2, 17 2, for calling from either a deaf or non-deaf terminal Accepting function, function to prompt the calling terminal to input the terminal number of the callee, function to retrieve the terminal number of the sign language interpreter from the sign language interpreter registration table 18 2, and function to call the retrieved terminal number
  • Image synthesizer And a function for switching between video and audio synthesis methods in each audio synthes
  • FIG. 2 shows an example of an image displayed on each terminal screen during a TV conversation with the sign language interpreting system of the present invention.
  • FIG. 2 (a) shows a screen of a deaf person terminal.
  • the image combining device 128 displays an image obtained by synthesizing the image of the sign language interpreter terminal with the image of the non-deaf person terminal.
  • the image of the non-deaf person is displayed as a main screen
  • the image of the sign language interpreter is displayed as a child screen.
  • One picture-in-picture may be displayed, or both may be displayed equally. If a sign language interpreter's image is displayed on a large scale, the sign language interpreted by the sign language interpreter will be more legible. It is preferable that the position of the child screen in the picture-in-picture display can be changed by a command from the terminal so as not to mask the important information of the main screen.
  • FIG. 2 (b) shows a screen of a non-deaf terminal, and a video obtained by combining the video of the sign language interpreter terminal with the video of the deaf terminal by the video synthesizing device 148 is displayed.
  • the image of the deaf person is displayed as a parent screen, and the image of the sign language interpreter is displayed as a child screen, but the image of the sign language interpreter is omitted and only the image of the deaf person is displayed. You may make it.
  • the image of the sign language interpreter By displaying the image of the sign language interpreter on the sub-screen, the sound interpreted by the sign language interpreter becomes more legible.
  • FIG. 2 (c) shows a screen of the sign language interpreter terminal, in which an image obtained by combining the image of the non-deaf terminal with the image of the deaf terminal is displayed by the image synthesizing device 168.
  • the image of a deaf person is displayed as a main screen and the image of a non-deaf person is displayed as a sub-picture, but the image of the non-deaf person is omitted and only the image of the deaf person is displayed. You may make it.
  • Non-deaf child footage When displayed on the screen, the sound of non-deaf people who are subject to sign language interpretation will be more legible.
  • the deaf person terminal is provided with a non-deaf sound device 130 so as to be able to cope with the case of transmitting the environmental sound from the deaf person terminal or the presence of an attendant.
  • the speech of the signer interpreter terminal and the speech of the sign language interpreter terminal are output, and the speech of the sign language interpreter terminal and the speech of the sign language interpreter terminal are synthesized by the speech synthesizer 150 for the non-deaf person terminal.
  • the voice is output, and a voice synthesized by the voice of the non-deaf terminal and the voice of the deaf terminal is output to the sign language interpreter terminal by the voice synthesizer 170.
  • the voice synthesizers 130, 150, 170 are omitted, and only the non-deaf person Connect the output of the voice codec 1 4 6 to the input of the voice codec 1 6 6 for the sign language interpreter, and connect the output of the voice codec 1 6 6 for the sign language interpreter to the voice code for the non-deaf person. It may be connected to the input of deck 146.
  • the operation of each video synthesizing device 128, 148, 168 and each voice synthesizing device 130, 150, 170 is controlled by the controller 180, and from each terminal.
  • the user can change the video display method or audio output method by pressing a predetermined number button on the dial pad. This means that the depressing of the dial pad number button at each terminal is detected as a data signal or tone signal at each demultiplexer 122, 142, 162 and controlled. It can be realized by transmitting it to the device.
  • each terminal can be used flexibly, such as selecting and displaying only the necessary video and audio according to the purpose, switching between the main screen and the sub-screen, and changing the position of the sub-screen.
  • each video synthesizing device 128, 148, 168 includes a telop memory 1 32 for a deaf terminal and a telop memory 1 for a non-deaf terminal, respectively.
  • the telop memory 17 2 for sign language interpreter terminals is connected, and the contents of each telop memory 1 32, 1 52, and 1 72 can be set from the controller 180. .
  • the message for each terminal is set in each of the telop memories 13 2, 15 2, 17 2, and each video compositing device 1 28, By issuing a command to select the signal of each telop memory 1 32, 15 2 and 17 2 to 1 48 and 16 8, the necessary message is transmitted to each terminal.
  • a three-way call can be established.
  • the terms correspond to the dial pad numbers of each terminal in advance, and the terms of the control device 180.
  • the sign language interpreter registration table 18 2 of the control device 180 registers the sign language interpreter selection information and the terminal number of the terminal used by each sign language interpreter from an appropriate terminal (not shown). Keep it.
  • Fig. 4 shows an example of the registration items registered in the sign language interpreter registration table 182.
  • the information for selecting a sign language interpreter is information for selecting a sign language interpreter desired by the user.
  • Gender ⁇ Age ⁇ Place of residence 'Specialized field ⁇ Register the level of sign language interpreter.
  • the place of residence assumes that the user wants someone who has geographical knowledge about a specific area. Here, the area can be specified by zip code.
  • Specialized fields are intended for cases where the content of the dialogue is specialized and the user wants someone who has specialized knowledge in the field or a person who is bright on topics in that field.
  • Interpreters specialize in politics, law, business, education, science and technology, medical care, languages, sports and hobbies. It should be noted that, since the fields of specialization are diverse, it is possible to register hierarchically and search at the level desired by the user at the time of selection.
  • each interpreter may be registered so that the user can select the desired qualification holder as a sign language interpreter.
  • the terminal number is for a telephone-type videophone terminal connected to a public telephone line, the telephone number of the terminal will be registered.
  • the sign language interpreter registration table 18 2 is provided with a reception flag indicating whether or not sign language interpreters can be accepted.
  • the registered sign language interpreter calls the sign language interpreter center from his / her own terminal and dials. By inputting a command using the pad, the reception flag can be set or reset.
  • sign language interpreters registered in the sign language interpreter registration table can set up the reception flag only when sign language interpreters can be accepted, thereby eliminating unnecessary calls. Can be quickly selected.
  • FIG. 3 shows a processing flow of the control device 180.
  • the Sign Language Interpretation System 100 can apply for a sign language interpreting service from either a deaf or non-deaf terminal, and if applying from a deaf terminal, a line I / F for the deaf terminal Non-deaf if you call the telephone number of the other side and apply from a non-deaf terminal 2003/011757
  • the conditions for selecting the sign language interpreter entered by the caller are gender, age classification, and regional 'specialty' sign language level, and the gender and age registered in the sign language interpreter registration table 1 8 2 ⁇ Residential area ⁇ Specialty ⁇ Select the appropriate sign language interpreter based on the level. The area is specified using a postal code, and sign language interpreters are selected in order from the one whose residence is closest to the specified area. You can select any item if you do not need to specify it.
  • a sign language interpreter whose reception flag is set is selected from the sign language interpreters corresponding to the selection conditions obtained by referring to the sign language interpreter registration table 18 2.
  • a candidate list of sign language interpreters as shown in (1) is displayed to prompt the user to input the selection number of the desired sign language interpreter (S110).
  • the selected number of the sign language interpreter input by the caller is obtained (S112), and the terminal number of the selected sign language interpreter is retrieved from the sign language interpreter registration table 182 and called (S11). 1 1 4). If there is a response from the sign language interpreter terminal (S116), the terminal number of the called party is retrieved and called (S118), and if a response is received from the called terminal (S112). 0), sign language P Kasumi 11757
  • a caller and a callee may be notified to set a videophone conversation.
  • the sign language interpreting system 100 is described as being composed of a line I / F, a multiplexing / separation measure, a video codec, a voice codec, a video synthesis device, a voice synthesis device, a control device, and the like. However, these need not necessarily be configured as individual HZWs, but may be configured so that the functions of each device are realized by software processing using a computer.
  • the sign language interpreter terminal 320 is outside the sign language interpreting center like the deaf person terminal 300 and the non-deaf person terminal 310, and the sign language interpreter center is connected to the public telephone line.
  • the present invention is not limited to this, and a part or all of the sign language interpreter is provided in the sign language interpreting center and the sign language interpreter is provided. It goes without saying that the interpreting center may provide sign language interpreting services.
  • the sign language interpreter can participate in the sign language interpreting service anywhere as long as the terminal has a terminal that can be connected to a public telephone line. 2003/011757
  • Sign-language interpreting services can be provided by using the reception flag effectively when time is available. By doing so, it will be possible to operate the sign language interpreting service, which is difficult to secure personnel, efficiently and stably. In particular, although sign language interpreters are increasing in number these days, even those with irregular time can use sign time effectively to provide sign language interpreting services.
  • the video signal of the own terminal is not input to the video synthesizing devices 1, 1, 1, and 1, the video signal of the own terminal is also input and synthesized for video confirmation.
  • a display function may be provided.
  • the video and audio are synthesized for each terminal by the video synthesizing devices 128, 148, 168 and the voice synthesizing devices 130, 150, 170.
  • the video and audio of all terminals may be combined and transmitted to each terminal.
  • the telop memories 13 2, 15.2, 17 2 are provided, and the character telop is added to each terminal by adding it to the video synthesizing device 1 28, 1 48, 1 68 for each terminal.
  • a display function was provided, a telop memory for storing voice information was provided, and a voice message was output to each terminal by adding it to the voice synthesizer 130, 150, 170 for each terminal. May be provided.
  • a sign language interpreter it is possible to set up a videophone conversation via a sign language interpreter.
  • FIG. 8 shows a system configuration diagram of a sign language interpreting system according to another embodiment of the present invention.
  • each terminal used by a deaf person, a non-deaf person, and a sign language interpreter is an IP (Internet Protocol) type videophone terminal connected to the Internet and has a Web browser function.
  • IP Internet Protocol
  • 400 is a sign language interpreting center that provides a sign language interpreting service.
  • Deaf terminal 600 non-deaf terminal 700, sign language interpreter terminal 4 3 1, 4
  • a keyboard for information input to a general-purpose processing device (a) such as a personal computer having a video input I / F function, audio input / output I / F function, and network connection function. (B) and mouse (c), Web page and communication server presented from Web server 410
  • a dedicated TV phone terminal may be used.
  • the video telephone terminal connected to the Internet for example, there is an IP video telephone terminal or the like compliant with H.323 of the ITU-T recommendation, but the present invention is not limited to this, but uses an original protocol.
  • a videophone terminal may be used.
  • the Internet includes a wireless LAN type
  • the videophone terminal may be a mobile phone or a mobile terminal having a videophone function that provides a web access function.
  • the sign language interpreting system 400 is provided with a connection destination table 422 for setting each terminal address of a deaf person terminal, a non-deaf person terminal, and a sign language interpreter terminal to be connected, and is registered in the connection destination table 422.
  • a communication service that has the function of connecting terminals and synthesizing video and audio received from each terminal and transmitting them to each terminal. It has a sign language interpreter registration table 412 for registering sign language interpreter selection information, a terminal address, and a reception flag as described above, and is accessed from the calling terminal using a Web browser.
  • Web server 4 10 having the function of selecting the desired sign language interpreter, and setting the terminal addresses of the caller terminal, the call destination terminal, and the sign language interpreter terminal in the connection destination table 422 of the connection measure 42 0.
  • FIG. 9 shows an example of the connection destination table 422.
  • the terminal address of the deaf terminal, the terminal address of the non-deaf terminal, and the terminal address of the sign language interpreter terminal are registered as a set in the connection destination table 422.
  • the connection destination table 422 is capable of registering a plurality of sets of such terminal addresses according to the processing capacity of the communication server 420, whereby a plurality of sign language interpreting services are provided at the same time.
  • the terminal address registered in the connection destination table 422 is an address on the Internet, an IP address is generally used.However, the terminal address is not limited to this, and is assigned by, for example, a directory server. A name or the like may be used.
  • the communication server 420 performs bucket communication according to a predetermined protocol with the deaf terminal, the non-deaf terminal, and the sign language interpreter terminal set in the connection destination table 422, Multiplexing and demultiplexing devices 122, 142, 162 in the sign language interpretation system 100 described above, video codecs 124, 144, 164, and audio codecs 122, 146, Equivalent to 16.6, Video Synthesizers 12.8, 14.8, 16.8, and Voice Synthesizers 13.0, 1550, 1700 JP2003 / 011757
  • predetermined video and audio communication is performed between the deaf terminal, the non-deaf terminal, and the sign language interpreter terminal in the same manner as in the sign language interpreting system 100 described above, and the deaf person and the deaf person are deaf. Videophone conversations through sign language interpreters will be realized between persons.
  • the terms registered in the term registration table 18 4 are obtained by using the controller 180 and the telop memories 13 2, 15 2, 17 2.
  • a function was provided during a videophone conversation based on commands from the terminal and displayed as character telops on the terminal.In the present embodiment, a similar function is provided by software processing of the communication server 420. You may. Further, the term specified by each terminal by the Web server 410 may be displayed as a pop-up message to another terminal.
  • a telop memory is provided in the communication By writing the term specified from the terminal to the telop memory via the web server 410, the character telop may be displayed on each terminal.
  • connection process for connecting the terminal, the non-deaf terminal, and the sign language interpreter terminal was realized by the control device 180.However, in this embodiment, since each terminal has a Web access function, The connection processing is performed by the Web server 410.
  • FIG. 10 shows a processing flow of the connection processing by the Web server 410.
  • a sign language interpreting service can be applied from either a deaf or non-deaf terminal.
  • Deaf or non-deaf people who apply for a sign language interpreter can access the Sign Language Interpretation Center's web server 410 from their own terminal using a web browser and log in to receive the sign language interpreter service. Processing is started. 1757
  • the Web server 410 first acquires the terminal address of the caller (S200), and sets it in the connection destination table 4222 (S202). Next, a screen prompting for the input of the terminal address of the call destination similar to that of FIG. 5 is delivered to the caller terminal (S204), and the callee terminal address input by the caller is acquired in response to this screen. Yes (S206). In addition, a screen prompting for input of the sign language interpreter selection condition similar to that of FIG. 6 described above is delivered to the calling terminal (S208), and the sign language interpreter selection condition input by the caller is acquired in response to the screen. (S210).
  • a sign language interpreter whose reception flag is set is selected from the sign language interpreters corresponding to the selection conditions acquired from the sign language interpreter registration table 4 1 2, and the caller terminal shown in FIG. 7 is used.
  • a similar candidate list is distributed to prompt the user to enter the selection number of the desired sign language interpreter (S2122).
  • the selected number of the sign language interpreter input by the caller is acquired, and the terminal address of the selected sign language interpreter is acquired from the sign language interpreter registration table 412 (S2114).
  • the call screen is delivered to the sign language interpreter terminal based on the acquired terminal address of the sign language interpreter (S 2 16), and if there is a response to accept the call (S 2 18), the sign language interpreter is referred to.
  • connection destination table 422 Is set in the connection destination table 422 (S220).
  • a call screen is delivered to the callee terminal based on the obtained callee terminal address (S2222), and if there is a response to accept the call (S2224), The terminal address of the call destination is set in the connection destination table 422 (S226).
  • a videophone conversation with a sign language interpreter is started (S228).
  • the sign language interpreter terminal is described as being in the sign language interpreting system 400 of the sign language interpreting center.However, the present invention is not limited to this. Even if they are all outside the Sign Language Interpretation Center and connected via the Internet, they can be handled in exactly the same way.
  • the videophone terminal used by the deaf / non-deaf / sign language interpreter is a telephone type videophone terminal connected to a public telephone line, and the videophone terminal is connected to the Internet.
  • the configuration of the sign language interpreter system has been described separately for the case of an IP type videophone terminal.However, a telephone type videophone terminal and an IP type videophone terminal can communicate with each other by providing a gateway for protocol conversion.
  • a sign language interpreting system that can communicate and supports any one of the protocols may be installed so as to support a videophone terminal using another protocol via a gateway.
  • the sign language interpreting system can provide sign language interpreting services and provide sign language interpreting services wherever there is a terminal that can be connected to a public telephone line or the Internet. it can.
  • Sign language interpreters It is not always necessary to visit the sign language interpreting center, it is possible to participate from homes and facilities and bases with video phone terminals, and it is also possible to provide sign language interpreting services using mobile phones and mobile terminals with video phone functions It is possible.
  • the sign language interpreting system or the sign language interpreting method of the present invention it is not necessary for a deaf person, a non-deaf person, and a sign language interpreter to consult with each other in advance and reserve an MCU. This has the effect of being able to respond.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 聾唖者と非聾唖者と手話通訳者とが事前に協議してMCUを予約する必要がなく、緊急時にも対応可能な手話通訳システムおよび手話通訳方法を提供する。手話通訳システム(100)は聾唖者端末(300)と非聾唖者端末(310)と手話通訳者端末(320)とを接続する機能と、各端末から受信した映像・音声信号を合成して各端末に送信する機能とを有し、聾唖者と非聾唖者の間で手話通訳を介したテレビ電話対談サービスを提供する。制御装置(180)は手話通訳者の選定情報と端末番号と受付可否を示すフラグが登録された手話通訳者登録テーブル(182)を備え、聾唖者または非聾唖者からの呼出により呼出元が指定した選定条件に該当する受付可能な手話通訳者が選択され、当該手話通訳者端末と呼出先端末とを呼出して自動接続する。また、対談中に説明の難しい用語を登録してテロップ表示する機能を備える。

Description

手話通訳システムおよび手話通訳方法
技術分野
本願発明は、 手話のできる聾哑者が手話のできない非聾哑者 電話を使用して対談できるようにするための手話通訳システムおよび手 明
話通訳方法に関し、 特に例えば、 役所 ·病院 ·警察等の行政機関等に手話 のできる人が常駐していなくても聾田哑者に対してテレビ電話による行政 サービスを提供できるようにする手話通訳システムおよび手話通訳方法 に関する。
背景技術
耳や口の不自由な聾哑者が非聾哑者とコミュニケ一ションを図るため には筆談または手話を利用することになるが、 筆談によるコミュニケ一 ションでは流暢な会話は困難であり、 手話によるコミュニケーションで は手話を使える非聾哑者が極めて少ないことから、 聾哑者が社会生活を 営む上での大きなバリアの 1つとなっている。
一方、 通信技術の発達によりテレビ電話を使用した手話による対談が 実用的レベルで行えるようになってきているが、 聾哑者が手話のできな い非聾 n亜者とテレビ電話で対談するには、 手話通訳者を交えて 3者対談 する必要がある。
特に、 役所 ·病院 ·警察等の行政機関等においては、 手話の使える人 を常駐させることは困難であることから、 緊急時に聾哑者に対してかか る行政機関等のサービスを提供できるようにするためには、 聾哂者の自 宅等と行政機関等にテレビ電話端末を配備するとともに、 両者が手話通 訳者を介してテレビ電話対談できる手話通訳システムを確立することが 急務である。
聾哑者と非聾哑者が手話通訳者を介してテレビ電話対談できるように するためには、 聾哑者が使用するテレビ電話端末と非聾哑者が使用する テレビ電話端末と手話通訳者が使用するテレビ電話端末とを相互に接続 する必要があり、 従来は 3箇所以上のテレビ電話端末を相互に接続して テレビ会議を行う多地点接続装置 (M C U ) を使用し、 聾哑者と非聾哑 者と手話通訳者の各テレビ電話端末から M C Uに接続してテレビ会議を 設定することが必要であった。
しかしながら、 M C Uを使用してテレビ会議を設定するためには、 聾 哑者と非聾哑者と手話通訳者が事前に協議して M C Uに対して予約する 必要があるが、 聾哑者と非聾哑者の間で事前に協議することは事実上困 難である。
また、 緊急時にはそもそも事前予約することはできず、 事前予約を前 提とする M C Uを利用することは事実上不可能であった。
それゆえに、 本願発明の主たる目的は、 襲哑者と非聾哑者と手話通訳 者とが事前に協議して M C Uを予約する必要がなく、 緊急時にも対応可 能な手話通訳システムおよび手話通訳方法を提供することである。 発明の開示
請求項 1に記載の手話通訳システムは、 手話のできる聾哑者が使用す る聾哑者用テレビ電話端末と、 手話のできない非聾哑者が使用する非聾 哑者用テレビ電話端末と、 手話通訳者が使用する手話通訳者用テレビ電 話端末とを相互に接続して、 聾哑者と非聾哑者とのテレビ電話対談にお いて手話通訳を提供する手話通訳システムであって、 手話通訳者用テレ ビ電話端末の端末番号が登録される手話通訳者登録テーブルを備え、 聾 哑者用テレビ電話端末または非聾哑者用テレビ電話端末のいずれかから の呼出を受付る機能と、 呼出を受付た呼出元テレビ電話端末に対して呼 出先の端末番号の入力を促す機能と、 手話通訳者登録テ一ブルから手話 通訳者の端末番号を取出す機能と、 取出された手話通訳者の端末番号に より手話通訳者用テレビ電話端末を呼出す機能と、 取得された呼出先の 端末番号により呼出先テレビ電話端末を呼出す機能とを有する接続手段 と、 聾哑者用テレビ電話端末に対して少なくとも非聾哑者用テレビ電話 端末からの映像と手話通訳者用テレビ電話端末からの映像とを合成して 送出する機能と、 非聾哑者用テレビ電話端末に対して少なくとも聾哑者 用テレビ電話端末からの映像と手話通訳者用テレビ電話端末からの音声 とを送出する機能と、 手話通訳者用テレビ電話端末に対して少なくとも 聾哑者用テレビ電話端末からの映像と非聾哑者用テレビ電話端末からの 音声とを送出する機能とを有する通信手段とを備えたものである。
これにより、 聾哑者端末または非聾哑者端末のいずれかからの呼出に より、 対談したい相手方の端末と手話通訳者の端末とが自動的に接続さ れ、 手話通訳に必要な映像および音声の通信が行われるので、 聾哑者と 非聾哑者と手話通訳者とが事前に協議することなく、 手話通訳を介した テレビ電話対談が行える。
また、 手話通訳者登録テーブルに登録されている手話通訳者の端末番 号を取出して呼出す機能を有するので、 手話通訳者は呼出可能な状態に ある限り何処にいても対応でき、 柔軟で効率的な手話通訳システムを構 成できる。
請求項 2に記載の手話通訳システムは、 請求項 1に記載の手話通訳シ ステムであって、 手話通訳者登録テーブルには手話通訳者を選択する選 択情報が登録され、 接続手段は呼出元テレビ電話端末から手話通訳者の 選択条件を取得する機能と、 手話通'訳者登録テーブルから取得された選 択条件に該当する手話通訳者の端末番号を取出す機能とを有するもので ある。
これにより、 手話通訳者登録テーブルに登録されている手話通訳者の 中から聾哑者と非聾哑者のテレビ電話対談の目的に適した人を選択でき る。
請求項 3に記載の手話通訳システムは、 請求項 1または請求項 2に記 載の手話通訳システムであって、 手話通訳者登録テーブルには手話通訳 者が受付可能か否かを示す受付フラグが登録され、 接続手段は手話通訳 者登録テーブルの受付フラグを参照して受付可能な手話通訳者の端末番 号を取出す機能を有するものである。
これにより、 手話通訳者が手話通訳者登録テーブルに受付可能か否か を登録しておくことで、 受付可能な手話通訳者を自動的に選択して呼出 せるので、 無駄な呼出を排除して、 より柔軟で効率的な手話通訳システ ムを構成できる。
請求項 4に記載の手話通訳システムは、 請求項 1ないし請求項 3のい ずれかに記載の手話通訳システムであって、 接続手段は各端末に対して 送信する文字メッセージを生成する機能を有し、 通信手段は各端末に対 して生成された文字メッセージを送出する機能を有するものである。 これにより、 聾哑者端末と非聾哑者端末と手話通訳者端末とを接続す る際に、 各端末に対して必要な情報入力を促す文字メッセ一ジを送出で さる。
請求項 5に記載の手話通訳システムは、 請求項 4に記載の手話通訳シ ステムであって、 接続手段は非聾哑者用端末に対して送信する音声メッ セージを生成する機能を有し、 通信手段は非聾哑者用テレビ電話端末に 対して前記生成された音声メッセージを送出する機能を有するものであ る。 これにより、 聾哑者端末と非聾哑者端末と手話通訳者端末とを接続す る際に、 非聾哑者端末に対して必要な情報入力を促す音声メッセージを 送出できるので、 視覚障害者が非聾哑者端末を使用して手話通訳者を介 して聾哑者とテレビ電話対談できる。
請求項 6に記載の手話通訳システムは、 請求項 1ないし請求項 5のい ずれかに記載の手話通訳システムであって、 接続手段は各端末からの指 令により対話中に使用する用語を登録する機能と、 各端末からの指令に より登録された用語を取出してテロップを生成する機能とを有し、 通信 手段は各端末に対して生成されたテロップを送出する機能を有するもの である。
これにより、 手話通訳の困難な用語をあらかじめ登録しておく ことで 、 各端末の画面にテロップ表示でき、 より迅速で正確なテレビ電話対談 が実現できる。
請求項 7に記載の手話通訳システムは、 請求項 1ないし請求項 6のい ずれかに記載の手話通訳システムであって、 通信手段は聾哑者用テレビ 電話端末に対して非聾哑者用テレビ電話端末からの映像と手話通訳者用 テレビ電話端末からの映像の一方を親画面とし、 他方を子画面として合 成した映像を送出する機能を有するものである。 .
これにより、 聾哑者用テレビ電話端末の画面にピクチャーインピクチ ヤーで非聾哑者の映像と手話通訳者の映像とが同時に表示されるので、 聾哑者は非聾哑者の顔を見ながら手話通訳者の手話を読取ることができ る。
請求項 8に記載の手話通訳システムは、 請求項 1ないし請求項 7のい ずれかに記載の手話通訳システムであって、 通信手段は非聾哑者用テレ ビ電話端末に対して聾哑者用テレビ電話端末からの映像を親画面とし、 手話通訳者用テレビ電話端末からの映像を子画面として合成した映像を 送出する機能を有するものである。
これにより、 非聾哑者用テレビ電話端末の画面にピクチャーインピク チヤ一で聾哑者の映像と手話通訳者の映像とが同時に表示されるので、 非聾哑者は聾哑者の表情を見ながら手話通訳者の表情を確認でき、 手話 通訳者により通訳された音声の判読が容易になる。
請求項 9に記載の手話通訳システムは、 請求項 1ないし請求項 8のい ずれかに記載の手話通訳システムであって、 通信手段は手話通訳者用テ レビ電話端末に対して聾哑者用テレビ電話端末からの映像と非聾哑者か らの映像とを合成した映像を送出する機能を有するものである。
.これにより、 手話通訳者用テレビ電話端末の画面に聾哑者と非聾哑者 の映像が同時に表示されるので、 手話通訳者は聾哑者の手話を読み取る とともに非聾哑者の表情が確認でき、 非聾哑者の音声の判読が容易にな る。
請求項 1 0に記載の手話通訳方法は、 手話のできる聾哑者が使用する 聾哑者用テレビ電話端末と、 手話のできない非聾哑者が使用する非聾哑 者用テレビ電話端末と、 手話通訳者が使用する手話通訳者用テレビ電話 端末とを相互に接続して、 聾哑者と非聾哑者とのテレビ電話対談におい て手話通訳を提供する方法であって、 手話通訳者用テレビ電話端末の端 末番号が登録される手話通訳者登録テーブルを備え、 聾哑者用テレビ電 話端末または非聾哑者用テレビ電話端末のいずれかからの呼出を受付る ステップと、 呼出を受付た呼出元テレビ電話端末から呼出先の端末番号 を取得するステツプと、 手話通訳者登録テーブルから手話通訳者の端末 番号を取出すステップと、 取出された手話通訳者の端末番号により手話 通訳者用テレビ電話端末を呼出すステツプと、 取得された相手先の端末 番号により呼出先テレビ電話端末を呼出すステップとを有し、 聾哑者用 テレビ電話端末に対して少なくとも非聾哑者用テレビ電話端末からの映 像と手話通訳者用テレビ電話端末からの映像とを合成して送出するステ ップと、 前記非聾哑者用テレビ電話端末に対して少なくとも聾哑者用テ レビ電話端末からの映像と手話通訳者用テレビ電話端末からの音声とを 送出するステップと、 手話通訳者用テレビ電話端末に対して少なくとも 聾哑者用テレビ電話端末からの映像と非聾哑者用テレピ電話端末からの 音声とを送出するステツプとを有するものである。
これにより、 聾哑者用テレビ電話端末または非聾哑者用テレビ電話端 末のいずれかからの呼出により、 対談したい相手方の端末と手話通訳者 の端末とが自動的に接続され、 手話通訳に必要な映像および音声の通信 が行われるので、 聾哑者と非聾哑者と手話通訳者とが事前に協議するこ となく、 手話通訳を介したテレビ電話対談が行える。
また、 手話通訳者登録テーブルに登録されている手話通訳者の端末番 号を取出して呼出す機能を有するので、 手話通訳者は呼出可能な状態に ある限り何処にいても対応でき、 柔軟で効率的な手話通訳システムを構 成できる。
本願発明の上述の目的, その他の目的, 特徴および利点は、 図面を参 照して行う以下の発明の実施の形態の詳細な説明から一層明らかとなろ う。 図面の簡単な説明
第 1図は、 本願発明の一実施形態にかかる手話通訳システムのシステ ム構成図である。
第 2図は、 本願発明の手話通訳システムによる聾哑者端末、 非聾哑者 端末、 手話通訳者端末の各画面に表示する映像の例を示す図である。 第 3図は、 本願発明の一実施形態にかかる手話通訳システムの制御装 置の処理フロー図である。 第 4図は、 手話通訳者登録テーブルの一例を示す図である。
第 5図は、 呼出先の端末番号の入力を促す画面の一例を示す図である 第 6図は、 手話通訳者選定条件の入力を促す画面の一例を示す図であ る。
第 7図は、 手話通訳者の候補者リストを表示する画面の一例を示す図 である。
第 8図は、 本願発明の他の実施形態にかかる手話通訳システムのシス テム構成図である。
第 9図は、 接続先テーブルの一例を示す図である。
第 1 0図は、 本願発明の他の実施形態にかかる手話通訳システムの制 御装置の処理フロー図である。 発明を実施するための最良の形態
第 1図に本願発明の一実施形態にかかる手話通訳システムのシステム 構成図を示す。 本実施形態は、 聾哑者 · 非聾哑者 ·手話通訳者の使用す る各端末が公衆電話回線に接続する電話型のテレビ電話端末である場合 のシステム構成例を示す。
図において、 1 0 0は手話通訳サービスを提供する手話通訳センター に設置される手話通訳システムであり、 公衆電話回線 2 0 0を介して、 聾哑者が使用する聾哑者用テレビ電話端末 (以下、 聾哑者端末と呼ぶ) 3 0 0と非聾哑者が使用する非聾哑者用テレビ電話端末 (以下、 非聾哑 者端末と呼ぶ) 3 1 0 と手話通訳者が使用する手話通訳者用テレビ電話 端末 (以下、 手話通訳者端末と呼ぶ) 3 2 0とを接続し、 聾哑者と非聾 哑者の間で手話通訳者を介したテレビ電話対談サ一ビスを提供するもの である。 聾哑者端末 300、 非聾哑者端末 3 1 0、 手話通訳者端末 320は、 それぞれ各利用者を撮像するテレビカメラ 300 a、 3 1 0 a, 320 aと、 受信した映像を表示するディスプレイ画面 30 0 b、 3 1 0 b, 320 bと、 番号入力や情報入力のためのダイアルパッ ド 300 c、 3 1 0 c、 320 cとを備える。 また、 非聾哑者端末 3 1 0、 手話通訳者 用端末 320では利用者に対して音声の入出力を行うへッ ドセッ ト 3 1 0 d、 320 dを備える。 通常の電話型端末では音声の入出力は手持式 の送受話器が使用されるが、 ここでは手話を対象としており、 手が自由 に動かせることが必要なので、 以下の説明では非聾哑者を含めてすべて 頭部に固定するヘッ ドセッ トを用いるものとして説明する。 尚、 聾哑者 端末 300にはへッ ドセッ トを図示していないが介添者が存在する等の 場合には、 へッドセッ トを使用して音声通話を併用するようにしてもよ い。
このような公衆回線に接続するテレビ電話端末としては、 例えば I T 11_丁勧告の:《. 32 0に準拠した I S D Nテレビ電話端末等があるが 、 本願発明はこれに限らず独自のプロトコルを使用するテレビ電話端末 を使用してもよい。
尚、 公衆電話回線には無線式のものが含まれ、 テレビ電話端末にはテ レビ電話機能を有する携帯電話や携帯端末を使用してもよい。
手話通訳システム 1 00は、 聾哑者端末と接続するための聾哑者端末 用回線インターフェース (以下、 インターフェースは I ZFと略す) 1 20と、 非聾哑者端末と接続するための非聾哑者端末用回線 I ZF 14 0と、 手話通訳者端末と接続するための手話通訳者端末用回線 I ZF 1 6 0とを備え、それぞれ映像信号 ·音声信号 ·データ信号を多重化したり 分離したりする多重 ' 分離装置 1 22、 142、 1 6 2と、 映像信号の 圧縮'伸張を行う映像コーデック 1 24、 144、 1 64と、 音声信号の 圧縮 ·伸張を行う音声コーデック 1 2 6、 1 4 6、 1 6 6とが接続され ている'。 ここで、 各回線 I / F、 各多重'分離装置、 各映像コーデック、 各音声コーデックは、 各端末で使用されるプロトコルに対応して呼制御 ゃストリーミング制御、 映像信号や音声信号の圧縮 ·伸張が行われる。 聾哑者端末用の映像コーデック 1 2 4の映像入力には、 非聾哑者端末 用の映像コーデック 1 4 4の映像出力と手話通訳者端末用の映像コ一デ ック 1 6 4の映像出力と聾哑者端末用テロップメモリ 1 3 2の出力とを 合成する映像合成装置 1 2 8が接続されている。
聾哑者端末用の音声コーデック 1 2 6の音声入力には、 非聾哑者端末 用の音声コ一デック 1 4 6の音声出力と手話通訳者端末用の音声コ一デ ック 1 6 6の音声出力とを合成する音声合成装置 1 3 0が接続されてい る。
尚、 聾哑者端末では基本的には音声の入出力を行わないので、 聾哑者 端末用の音声コーデック 1 2 6や音声合成装置 1 3 0は省略することが できるが、 聾哑者端末側の環境音を非聾哑者端末に伝達したい場合や聾 哑者に介添者が存在する場合等があるので、 音声通話機能を設けておく ことが好ましい。
非聾哑者端末用の映像コーデック 1 4 4の映像入力には、 聾哑者端末 用の映像コ一デック 1 2 4の映像出力と手話通訳者端末用の映像コーデ ック 1 6 4の映像出力と非聾哑者端末用テロップメモリ 1 5 2の出力と を合成する映像合成装置 1 4 8が接続されている。
非聾哑者端末用の音声コーデック 1 4 6の音声入力には、 聾哑者端末 用の音声コーデック 1 2 6の音声出力と手話通訳者端末用の音声コーデ ック 1 6 6の音声出力とを合成する音声合成装置 1 5 0が接続されてい る。
尚、 非聾哑者端末では、 手話通訳者の映像表示は省略することができ るが、 手話通訳者の映像を表示することで手話通訳者によって通訳され た音声の判読が容易になるので、 手話通訳者の映像を合成できるように しておくことが好ましい。
手話通訳者端末用の映像コ一デック 1 64の映像入力には、 聾哑者端 末用の映像コーデック 1 24の映像出力と非聾哑者端末用の映像コ一デ ック 1 44の映像出力と手話通訳者端末用テロップメモリ 1 7 2の出力 とを合成する映像合成装置 1 6 8が接続されている。
手話通訳者端末用の音声コーデック 1 6 6の音声入力には、 聾哑者端 末用の音声コーデック 1 2 6の音声出力と非聾哑者端末用の音声コーデ ック 1 46の音声出力とを合成する音声合成装置 1 7 0が接続されてい る。
尚、 手話通訳者端末では、 非聾哑者の映像表示は省略することができ るが、 非聾哑者の映像を表示することで非聾哑者の音声を手話通訳する 際の音声の判読が容易になるので、 非聾哑者の映像を合成できるように しておくことが好ましい。
また、 手話通訳システム 1 0 0は、 手話通訳者が使用する手話通訳者 用端末の端末番号が登録される手話通訳者テーブル 1 8 2を備え、 各回 線 I ZF 1 2 0、 1 4 0、 1 6 0、 各多重 ·分離装置 1 2 2、 1 4 2、 1 6 2、 各映像合成装置 1 2 8、 1 48、 1 6 8、 各音声合成装置 1 3 0 、 1 5 0、 1 7 0、 各テロップメモリ 1 3 2、 1 5 2、 1 7 2のそれぞ れと接続される制御装置 1 8 0を有し、 聾哑者端末または非聾哑者端末 のいずれかからの呼出を受付ける機能と、 呼出元端末に対して呼出先の 端末番号の入力を促す機能と、 手話通訳者登録テーブル 1 8 2から手話 通訳者の端末番号を取出す機能と、 当該取出した端末番号を呼出す機能 と、 呼出先の端末番号を呼出す機能とによって呼出元端末と手話通訳者 端末と呼出先端末との間を接続する機能を提供する他、 各映像合成装置 や各音声合成装置における映像'音声合成方法の切替機能や、テロップを 生成してテロップメモリに送出する機能等を提供する。
第 2図に、 本願発明の手話通訳システムによるテレビ対談中に各端末 画面に表示される映像の例を示す。 第 2 ( a ) 図は聾哑者端末の画面で あり、 映像合成装置 1 2 8によって非聾哑者端末の映像に手話通訳者端 末の映像を合成した映像が表示される。 ここでは、 非聾哑者の映像を親 画面、 手話通訳者の映像を子画面としてピクチャーィンピクチャー表示 しているが、 手話通訳者の映像を親画面、 非聾哑者の映像を子画面とし てピクチャーィンピクチャ一表示してもよく、 両者を均等に表示しても よい。 手話通訳者の映像を大きく表示するようにすれば、 手話通訳者に よって通訳された手話はより判読しやすくなる。 尚、 ピクチャーインピ クチャ一表示における子画面の位置は、 親画面の重要情報をマスクする ことにならないように、 端末からのコマンドによって変更できることが 好ましい。
第 2 ( b ) 図は非聾哑者端末の画面であり、 映像合成装置 1 4 8のよ つて聾哑者端末の映像に手話通訳者端末の映像を合成した映像が表示さ れる。 ここでは、 聾哑者の映像を親画面、 手話通訳者の映像を子画面と してピクチャーィンピクチャー表示しているが、 手話通訳者の映像は省 略して聾哑者の映像のみを表示するようにしてもよい。 手話通訳者の映 像を子画面に表示することにより、 手話通訳者によって通訳された音声 はより判読しやすくなる。
第 2 ( c ) 図は手話通訳者端末の画面であり、 映像合成装置 1 6 8に よって聾哑者端末の映像に非聾哑者端末の映像を合成した映像が表示さ れる。 ここでは、 聾哑者の映像を親画面、 非聾哑者の映像を子画面とし てピクチャーインピクチャー表示しているが、 非聾哑者の映像は省略し て聾哑者の映像のみを表示するようにしてもよい。 非聾哑者の映像を子 画面に表示することにより、 手話通訳の対象となる非聾哑者の音声はよ り判読しやすくなる。
また、 音声については、 聾哑者端末からの環境音を伝達する場合や介 添者が存在する場合にも対応できるように、 聾哑者端末には音声合成装 置 1 3 0によって非聾哑者端末の音声と手話通訳者端末の音声を合成し た音声を出力し、 非聾哑者端末には音声合成装置 1 5 0によって聾哑者 端末の音声と手話通訳者端末の音声を合成した音声を出力し、 手話通訳 者端末には音声合成装置 1 7 0によって非聾哑者端末の音声と聾哑者端 末の音声を合成した音声を出力する。
尚、 聾哑者端末からの環境音を伝達することや介添者に対応する必要 がない場合には、 音声合成装置 1 3 0、 1 5 0、 1 7 0を省略し、 単に 非聾哑者用音声コ一デック 1 4 6の出力を手話通訳者用音声コ一デック 1 6 6の入力に接続し、 手話通訳者用音声コ一デック 1 6 6の出力を非 聾哑者用音声コ一デック 1 4 6の入力に接続するようにしてもよい。 各映像合成装置 1 2 8、 1 4 8、 1 6 8や各音声合成装置 1 3 0、 1 5 0、 1 7 0の動作は、 制御装置 1 8 0によってコントロールされてお り、 各端末から利用者がダイアルパッ ドの所定の番号ポタンを押すこと によって映像表示方法または音声出力方法を変更することができる。 こ れは、 各端末でダイアルパッ ドの番号ポタンが押されたことを、 各多重 '分離装置 1 2 2、 1 4 2、 1 6 2においてデータ信号またはトーン信 号として検出し、 これを制御装置に伝達することにより実現できる。
これにより、 各端末では目的に応じて必要な映像や音声のみを選択し て表示したり、 親画面と子画面を入替えたり、 子画面の位置を変更する など、 柔軟な使い方ができる。
また、 各映像合成装置 1 2 8、 1 4 8、 1 6 8の入力には、 それぞれ 聾咂者端末用テロップメモリ 1 3 2、 非聾哑者端末用テロップメモリ 1 5 2、 手話通訳者端末用テロップメモリ 1 7 2が接続されており、 各テ ロップメモリ 1 3 2、 1 5 2、 1 7 2の内容は制御装置 1 8 0から設定 できるようになっている。
これにより、 手話通訳を介したテレビ電話対談を設定する際に、 各端 末に対するメッセージを各テロップメモリ 1 3 2、 1 5 2、 1 7 2に設 定し、 各映像合成装置 1 2 8、 1 4 8、 1 6 8に対して各テロップメモ リ 1 3 2、 1 5 2、 1 7 2の信号を選択する指令を出すことで、 各端末 に対して必要なメッセ一ジを伝達して 3者間通話を確立することができ る。
また、 テレビ電話対談において手話では説明の困難な用語や発音の困 難な言葉等がある場合に、 その用語をあらかじめ各端末のダイアルパッ ドの番号に対応させて制御装置 1 8 0 .の用語登録テ一ブル 1 8 4に登録 しておき、 テレビ電話対談中に各端末のダイアルパッドが押されたこと を検出し、 押されたダイアルパッ ドの番号に対応する用語を用語登録テ 一ブルから取出して文字テロップを生成し、 各テロップメモリに設定す ることで各端末にその用語を表示することができる。
これにより、 手話では説明の困難な用語や発音の困難な言葉を文字テ 口ップにより相手方に伝えることができるので、 より迅速で的確なテレ ビ電話対談が行える。
次に、 手話通訳を介したテレビ電話対談の設定するための制御装置 1
8 0の処理フローを示す。
処理に先だって、 制御装置 1 8 0の手話通訳者登録テーブル 1 8 2に は、 適当な端末 (図示省略) から、 手話通訳者の選定情報と各手話通訳 者が使用する端末の端末番号を登録しておく。 第 4図に、 手話通訳者登 録テーブル 1 8 2に登録される登録項目の例を示す。 手話通訳者の選定 情報とは、 利用者が希望する手話通訳者を選定するための情報であり、 性別 ·年齢 ·居住地 '専門分野 ·手話通訳のレベル等を登録する。 居住地 は、 利用者が特定の地域についての地理的知識を有する人を希望する場 合を想定したもので、 ここでは郵便番号によって地域指定できるように した。 専門分野は、 対談の内容が専門的なものとなる場合に利用者がそ の分野の専門知識を有する人やその分野の話題に明るい人を希望する場 合を想定したもので、 ここでは手話通訳者が得意とする分野を政治 ·法 律 · ビジネス ·教育 ·科学技術 ·医療 ·語学 ·スポーツ '趣味等に分けて 登録できるようにした。 尚、 専門分野は多岐にわたるので、 階層的に登 録しておいて選択時に利用者の希望するレベルでサーチするようにして も良い。
この外に、 各通訳者が保有する資格を登録しておき、 利用者が希望す る資格保有者を手話通訳者に選定できるようにしてもよい。
端末番号は、 ここでは公衆電話回線に接続する電話型のテレビ電話端 末を対象としているので、 端末の電話番号を登録することになる。
また、 手話通訳者登録テーブル 1 8 2には、 手話通訳を受付可能か否 かを示す受付フラグが設けられており、 登録された手話通訳者が自己の 端末から本手話通訳センターを呼出し、 ダイアルパッドを使用してコマ ンド入力することで、 受付フラグをセッ トしたり、 リセッ トしたりする ことができる。 これにより、 手話通訳者登録テーブルに登録された手話 通訳者は、 手話通訳を受付可能なときにのみ受付フラグをセットするこ とにより無駄な呼出を排除でき、 利用者も対応可能な手話通訳者を迅速 に選択することができる。
第 3図に、 制御装置 1 8 0の処理フローを示す。 本手話通訳システム 1 0 0は、 聾哑者端末と非聾哑者端末のいずれからでも手話通訳サービ スを申込むことができ、 聾哑者端末から申込む場合は聾哑者端末用回線 I / F側の電話番号に架電し、 非聾哑者端末から申込む場合は非聾哑者 2003/011757
16 端末用回線 I /F側の電話番号に架電することで、 手話通訳者端末と相 手方の端末とが呼出され、 手話通訳を介したテレビ電話接続が確立され る。
図のように、 まず最初に聾哑者端末用回線 I /F 1 2 0または非聾哑 者端末用回線 I /F 1 40のいずれかに呼出があったことを検出する ( S 1 0 0) 。 次に、 呼出元端末に第 5図に示すような呼出先の端末番号 の入力を促す画面を表示し (S 1 0 2 ) 、 これに対して呼出元が入力し た呼出先の端末番号を取得する (S 1 0 4) 。 また、 呼出元端末に第 6 図に示すような手話通訳者の選定条件の入力を促す画面を表示し (S 1 0 6 ) 、 これに対して呼出元が入力した手話通訳者選定条件を取得する (S 1 0 8) 。 ここで、 呼出元が入力する手話通訳者の選定条件は、 性 別 ·年齢区分 ·地域 '専門分野 '手話のレベルであり、 手話通訳者登録テ —ブル 1 8 2に登録された性別 ·年齢 ·居住地 ·専門分野 ·レベルをもと に該当する手話通訳者を選定する。 尚、 地域は郵便番号を用いて指定す ることとし、 手話通訳者は居住地が指定された地域に近いものから順に 選定されるようにした。 いずれの選定項目についても、 特に指定する必 要がない場合は不問を選ぶことができる。
次に、 手話通訳者登録テーブル 1 8 2を参照して取得された選定条件 に該当する手話通訳者のうち受付フラグがセッ トされている手話通訳者 を選定し、 呼出元端末に第 7図に示すような手話通訳者の候補者リスト を表示して希望する手話通訳者の選択番号の入力を促す (S 1 1 0) 。 これに対して呼出元が入力した手話通訳者の選択番号を取得し (S 1 1 2 ) 、 手話通訳者登録テーブル 1 8 2から当該選択された手話通訳者の 端末番号を取出して呼出す (S 1 1 4) 。 当該手話通訳者端末から応答 があったときは (S 1 1 6) 、 呼出先の端末番号を取出して呼出し (S 1 1 8) 、 当該呼出先端末から応答があつたときに (S 1 2 0 ) 、 手話 P 霞麵 11757
17 通訳付テレビ電話対談が開始される (S 1 2 2 ) 。
S 1 1 6で選択された手話通訳者端末から応答がない場合は、 次候補 があるか否かを判断し (S 1 2 4 ) 、 次候補がある場合は S 1 1 4に戻 つて繰返し、 次候補がない場合は呼出元端末にその旨を通知して切断す る ( S 1 2 6 ) 。
S 1 2 0で呼出先端末から応答がない場合は、 呼出元端末および選択 された手話通訳者端末にその旨を通知して切断する (S 1 2 8 ) 。
上記実施形態では、 選択された手話通訳者端末から応答がない塲合は 、 単に呼出元にその旨を通知して切断するとして説明したが、 手話通訳 予約テーブルを設けて呼出元の端末番号と呼出先の端末番号とを登録し
、 当該選択された手話通訳者からの応答があつたときに呼出元と呼出先 に通知してテレビ電話対談を設定するようにしてもよい。
上記実施形態では、 手話通訳システム 1 0 0は回線 I / F、 多重 '分 離措置、 映像コ一デック、 音声コーデック、 映像合成装置、 音声合成装 置、 制御装置等から構成されるものとして説明したが、 これらは必ずし も個別の H ZWで構成する必要はなく、 コンピュータを用いてソフトウ エア処理によって各装置の機能を実現するように構成してもよい。 上記実施形態では、 手話通訳者端末 3 2 0は聾哑者端末 3 0 0や非聾 哑者端末 3 1 0と同様に手話通訳センタ一の外にあって、 手話通訳セン ターから公衆電話回線を介して呼出されて手話通訳サービスを提供する ものとして説明したが、 本願発明はこれに限定されるものではなく、 手 話通訳者の一部または全部を手話通訳センタ一内に設けて、 手話通訳セ ンターから手話通訳サービスを提供するようにしてもよいことはいうま でもない。
尚、 上記実施形態では、 手話通訳者は公衆電話回線に接続可能な端末 を有する限り何処にいても手話通訳サービスに参加できるので、 前述の 2003/011757
18 受付フラグを利用して時間の空いたときを有効に活用して手話通訳サー ビスを提供できる。 このようにすることで、 人員確保の難しい手話通訳 サービスを効率的かつ安定的に運用することができるようになる。 特に 、 昨今では手話通訳のポランティアが増加してきているが、 時間的に不 規則なポランティアの人でも、 限られた時間を有効に活用して手話通訳 サービスを提供できる。
上記実施形態では、 映像合成装置 1 2 8、 1 4 8、 1 6 8には自端末 の映像信号は入力されていないが、 自端末の映像信号も入力して映像確 認用として合成して表示する機能を設けてもよい。
また、 上記実施形態では、 映像合成装置 1 2 8、 1 4 8、 1 6 8や、 音声合成装置 1 3 0、 1 5 0、 1 7 0により各端末別に映像や音声を合 成するようにしているが、 すべての端末の映像や音声を一括で合成して 各端末に送信するようにしてもよい。
上記実施形態では、 テロップメモリ 1 3 2、 1 5. 2、 1 7 2を設け、 各端末用の映像合成装置 1 2 8、 1 4 8、 1 6 8に加えることで各端末 に文字テロップを表示する機能を設けたが、 音声情報を記憶するテロッ プメモリを設け、 各端末用の音声合成装置 1 3 0、 1 5 0、 1 7 0に加 えることで各端末に音声メッセ一ジを出力する機能を設けてもよい。 こ れにより、 例えば非聾哑者が視覚障害者である場合でも手話通訳を介し たテレビ電話対談を設定することが可能となる。
第 8図に本願発明の他の実施形態にかかる手話通訳システムのシステ ム構成図を示す。 本実施形態では、 聾哑者 · 非聾哑者 ·手話通訳者の使 用する各端末が、 インターネッ 卜に接続する I P ( Internet Protocol) 型のテレビ電話端末であって、 W e bブラウザ機能を備えたものである 場合のシステム構成例を示す。
図において、 4 0 0は手話通訳サービスを提供する手話通訳センター に設置される手話通訳システムであり、 インターネット 5 0 0を介して 聾哑者が使用する聾哑者端末 6 0 0と非聾哑者が使用する非聾哑者端末 7 0 0と手話通訳者が使用する手話通訳者端末 4 3 1、 4 3 2、 …のい ずれかとを接続し、 聾哑者と非聾哑者の間で手話通訳を介したテレビ電 話対談サービスを提供する。
聾哑者端末 6 0 0、 非聾哑者端末 7 0 0、 手話通訳者端末 4 3 1、 4
3 2、 …は、 ここでは映像入力 I /F機能と音声入出力 I /F機能とネ ッ トワーク接続機能とを有するパーソナルコンピュータ等の汎用の処理 装置 ( a) に、 情報入力のためのキーボード (b) およびマウス (c ) と、 We bサーバ 4 1 0から提示される We bぺ一ジ画面と通信サーバ
4 2 0から供給されるテレビ電話画面を表示するディスプレイ(d)と、 手話通訳者の手話を撮像するテレビカメラ(e)と、 手話通訳者に対する 音声の入出力を行うヘッドセッ ト ( f ) とを備え、 I Pテレビ電話ソフ トと We bブラウザをインストールしたものを使用したが、 専用のテレ ビ電話端末を使用してもよい。
尚、 インターネッ トに接続するテレビ電話端末としては、 例えば I T U— T勧告の H. 3 2 3に準拠した I Pテレビ電話端末等があるが、 本 願発明はこれに限らず独自のプロトコルを使用するテレビ電話端末を使 用してもよい。
また、 インターネットには無線 LAN式のものが含まれ、 テレビ電話 端末にはテレビ電話機能を有する携帯電話や携帯端末であって We bァ クセス機能を提供するものを使用してもよい。
手話通訳システム 40 0は、 接続する聾哑者端末と非聾哑者端末と手 話通訳者端末の各端末ァドレスを設定する接続先テーブル 4 2 2を備え 、 接続先テーブル 42 2に登録された端末間を接続して各端末から受信 した映像および音声を合成して各端末に送信する機能を有する通信サー バ 4 2 0と、 前述のように手話通訳者の選定情報と端末アドレスと受付 フラグを登録する手話通訳者登録テーブル 4 1 2を備え、 呼出元端末か ら W e bブラウザを使用してアクセスすることによって希望する手話通 訳者を選択し、 接続措置 42 0の接続先テーブル 42 2に呼出元端末と 呼出先端末と手話通訳者端末の各端末ァドレスを設定する機能を有する We bサーバ 4 1 0と、 We bサーバ 4 1 0および通信サーバ 4 2 0を インターネットに接続するためのルータ 4 5 0と、 通信サーバ 4 2 0と ネッ トワークで接続される複数の手話通訳者端末 4 3 1、 4 3 2、 ···、 4 3 Nとから構成される。
第 9図に、 接続先テーブル 4 2 2の例を示す。 図.のように、 接続先テ 一ブル 4 2 2には聾哑者端末の端末ァドレスと非聾哑者端末の端末ァド レスと手話通訳者端末の端末アドレスとがセットとして登録され、 これ によって 1つの手話通訳サービスが設定される。 接続先テーブル 42 2 は、 通信サーバ 42 0の処理能力に応じてこのような端末ァドレスのセ ッ トを複数登録できるようになつており、 これにより同時に複数の手話 通訳サービスが提供される。
尚、 接続先テーブル 42 2に登録する端末アドレスは、 インターネッ ト上のアドレスであるから、 一般に I Pアドレスが使用されるが、 これ に限定されるものではなく、 例えばディ レク トリサーバによって付与さ れた名称等を使用するものであってもよい。
通信サーバ 4 2 0は、 接続先テーブル 4 2 2に設定された聾哑者端末 と非聾哑者端末と手話通訳者端末とに対して、 所定のプロトコルに従つ たバケツ ト通信を行い、 前述の手話通訳システム 1 0 0における多重' 分離装置 1 2 2、 1 42、 1 6 2と、 映像コ一デック 1 24、 1 44、 1 6 4と、 音声コーデック 1 2 6、 1 4 6、 1 6 6と、 映像合成装置 1 2 8、 1 4 8、 1 6 8と、 音声合成装置 1 3 0、 1 5 0、 1 7 0と同等 JP2003/011757
21 の機能をソフトウエア処理によって提供する。
これにより、 前述の手話通訳システム 1 0 0と同様に聾哑者端末と非 聾哑者端末と手話通訳者端末との間で所定の映像および音声の通信が行 われ、 聾哑者と被聾哑者の間で手話通訳を介したテレビ電話対談が実現 される。
尚、 前述の手話通訳システム 1 0 0では、 制御装置 1 8 0とテロップ メモリ 1 3 2、 1 5 2、 1 7 2とを用いて、 用語登録テ一ブル 1 8 4に 登録された用語をテレビ電話対談中に端末からの指令に基づいて取出し 、 端末に文字テロップとして表示する機能を有していたが、 本実施形態 においても通信サーバ 4 2 0のソフト処理によって同様の機能を設ける ようにしてもよい。 また、 W e bサーバ 4 1 0によって各端末から指定 された用語を他の端末に対してポップアツプメッセージとして表示する ようにしてもよく、 通信サ一パ 4 2 0にテロップメモリを設けて、 各端 末から指定された用語を W e bサーバ 4 1 0経由で当該テロップメモリ に書込むことにより各端末に文字テロップを表示するようにしてもよい 前述の手話通訳システム 1 0 0では、 聾哑者端末と非聾哑所端末と手 話通訳者端末とを接続する接続処理は制御装置 1 8 0によって実現した が、 本実施形態では、 各端末が W e bアクセス機能を有する場合を対象 としているので、 W e bサーバ 4 1 0によって接続処理を行う。
第 1 0図に、 W e bサーバ 4 1 0による接続処理の処理フローを示す 。 本手話通訳システム 4 0 0においても、 聾哑者端末と非聾哑者端末の いずれからでも手話通訳サービスを申込むことができる。 手話通訳を申 込む聾哑者または非聾哑者は、 自己の端末から W e bブラウザを用いて 手話通訳センターの W e bサーバ 4 1 0にアクセスしてログインするこ とにより、 手話通訳サービスの受付処理が開始される。 1757
22 図のように、 W e bサ一バ 4 1 0は、 最初に呼出元の端末ァドレスを 取得し (S 2 0 0 ) 、 接続先テーブル 4 2 2に設定する (S 2 0 2 ) 。 次に、 呼出元端末に前述の第 5図と同様の呼出先の端末ァドレスの入力 を促す画面を配信し (S 2 0 4 ) 、 これに対して呼出元が入力した呼出 先端末アドレスを取得する (S 2 0 6 ) 。 また、 呼出元端末に前述の図 6と同様の手話通訳者選定条件の入力を促す画面を配信し (S 2 0 8 ) 、 これに対して呼出元が入力した手話通訳者選定条件を取得する (S 2 1 0 ) 。
次に、 手話通訳者登録テーブル 4 1 2から取得された選定条件に該当 する手話通訳者のうち受付フラグがセッ トされている手話通訳者を選定 し、 呼出元端末に前述の第 7図と同様の候補者リストを配信して希望す る手話通訳者の選択番号の入力を促す (S 2 1 2 ) 。 これに対して呼出 元が入力した手話通訳者の選択番号を取得し、 手話通訳者登録テーブル 4 1 2から当該選択された手話通訳者の端末アドレスを取得する (S 2 1 4 ) 。 取得した手話通訳者の端末アドレスに基づいて手話通訳者端末 に呼出画面を配信し (S 2 1 6 ) 、 呼出を受付ける旨の回答があつたと きは (S 2 1 8 ) 、 当該手話通訳者の端末ァドレスを接続先テーブル 4 2 2に設定する (S 2 2 0 ) 。 次に、 取得した呼出先の端末アドレスに 基づいて呼出先端末に対して呼出画面を配信し ( S 2 2 2 ) 、 呼出を受 付ける旨の回答があつたときは (S 2 2 4 ) 、 当該呼出先の端末ァドレ スを接続先テーブル 4 2 2に設定する (S 2 2 6 ) 。 これにより、 手話 通訳付テレビ電話対談が開始される (S 2 2 8 ) 。
S 2 1 8で手話通訳者端末から呼出を受付ける旨の回答がない場合は 、 次候補があるか否かを判断し (S 2 3 0 ) 、 次候補がある場合は呼出 元端末に他の候補を選択するよう促すメッセ一ジを配信し (S 2 3 2 ) 、 S 2 1 4に戻る。 また、 次候補がない場合は、 呼出元端末にその旨通 知し (S 2 3 4 ) 、 終了する。
S 2 2 4で呼出先端末から呼出を受付ける旨の回答がない場合は、 呼 出元端末および選択された手話通訳者端末にその旨通知し (S 2 3 6 ) 、 終了する。
上記実施形態においても、 選択された手話通訳者端末から呼出を受付 ける旨の回答がない場合は、 単に呼出元にその旨を通知して終了すると して説明したが、 手話通訳予約テーブルを設けて呼出元の端末ァドレス と呼出先の端末ァドレスとを登録し、 当該選択された手話通訳者からの 応答があつたときに呼出元と呼出先に通知してテレビ電話対談を設定す るようにしてもよい。
上記実施形態では、 手話通訳者端末は手話通訳センターの手話通訳シ ステム 4 0 0内にあるものとして説明したが、 本願発明はこれに限定さ れるものではなく、 手話通訳者端末の一部または全部が手話通訳センタ 一外にあってインターネッ トを介して接続されるものであっても、 全く 同じように取り錄ぅことができる。
上記実施形態では、 聾哑者ゃ非聾哑者ゃ手話通訳者が使用するテレビ 電話端末が、 公衆電話回線に接続する電話型のテレビ電話端末である場 合と、 イン夕一ネットに接続する I P型のテレビ電話端末である場合と に分けて手話通訳システムの構成を説明したが、 電話型のテレビ電話端 末と I P型のテレビ電話端末とはプロトコル変換を行うゲートウエイを 設けることで相互に通信可能であり、 いずれかのプロトコルに対応する 手話通訳システムを設置して、 ゲ一トウエイを介して他のプロトコルを 使用するテレビ電話端末に対応させるようにしてもよい。
このように、 本手話通訳システムは、 公衆電話回線またはインターネ ッ トに接続可能な端末を有する限り何処にいても手話通訳サ一ビスの提 供を受けたり、 手話通訳サ一ビスを提供したりできる。 手話通訳者は、 必ずしも手話通訳センタ一に足を運ぶ必要はなく、 自宅やテレビ電話端 末のある施設や拠点から参加でき、 テレビ電話機能を有する携帯電話や 携帯端末を使用して手話通訳サービスを提供することも可能である。
また、 手話のできる人が手話通訳センターの手話通訳者登録テーブル に登録しておけば、 いつでも都合の良いときにサ一ビスできる。 従って 、 手話通訳センターを運用する側から見ても、 手話通訳者をセンターに 集める必要がないので、 時間的にも費用的にも効率的な手話通訳センタ 一の運用が可能となる。 特に、 最近では手話通訳をポランティアでやつ てみたいという人も増えており、 自宅からでもこのようなサービスを提 供できるので、 手話通訳者の確保が容易となる。 産業上の利用可能性
上述したように、 本願発明の手話通訳システムまたは手話通訳方法に よれば、 聾哑者と非聾哑者と手話通訳者とが事前に協議して M C Uを予 約する必要がなく、 緊急時にも対応できるという効果がある。

Claims

請 求 の 範 囲
1 . 手話のできる聾哑者が使用する聾哑者用テレビ電話端末と、 手話の できない非聾哑者が使用する非聾哑者用テレビ電話端末と、 手話通訳者 が使用する手話通訳者用テレビ電話端末とを相互に接続して、 聾哑者と 非聾哑者とのテレビ電話対談において手話通訳を提供する手話通訳シス テムであって、
前記手話通訳者用テレビ電話端末の端末番号が登録される手話通訳者 登録テーブルを備え、 前記聾哑者用テレビ電話端末または前記非聾哑者 用テレビ電話端末のいずれかからの呼出を受付る機能と、 前記呼出を受 付た呼出元テレビ電話端末に対して呼出先の端末番号の入力を促す機能 と、 前記手話通訳者登録テーブルから手話通訳者の端末番号を取出す機 能と、 前記取出された手話通訳者の端末番号により手話通訳者用テレビ 電話端末を呼出す機能と、 前記取得された呼出先の端末番号により呼出 先テレビ電話端末を呼出す機能とを有する接続手段と、
前記聾哑者用テレビ電話端末に対して少なくとも前記非聾哑者用テレ ビ電話端末からの映像と前記手話通訳者用テレビ電話端末からの映像と を合成して送出する機能と、 前記非聾哑者用テレビ電話端末に対して少 なくとも前記聾哑者用テレビ電話端末からの映像と前記手話通訳者用テ レビ電話端末からの音声とを送出する機能と、 前記手話通訳者用テレビ 電話端末に対して少なくとも前記聾哑者用テレビ電話端末からの映像と 前記非聾哑者用テレビ電話端末からの音声とを送出する機能とを有する 通信手段とを備えたことを特徴とする、 手話通訳システム。
2 . 前記手話通訳者登録テーブルには、 手話通訳者を選択する選択情報 が登録され、 前記接続手段は、 前記呼出元テレビ電話端末から手話通訳者の選択条 件を取得する機能と、 前記手話通訳者登録テーブルから前記取得された 選択条件に該当する手話通訳者の端末番号を取出す機能とを有すること を特徴とする、 請求項 1に記載の手話通訳システム。
3 . 前記手話通訳者登録テーブルには、 手話通訳者が受付可能か否かを 示す受付フラグが登録され、
前記接続手段は、 前記手話通訳者登録テーブルの受付フラグを参照し て受付可能な手話通訳者の端末番号を取出す機能を有することを特徴と する、 請求項 1または請求項 2に記載の手話通訳システム。
4 . 前記接続手段は、 前記各端末に対して送信する文字メッセ一ジを生 成する機能を有し、
前記通信手段は、 前記各端末に対して前記生成された文字メッセージ を送出する機能を有することを特徴とする、 請求項 1ないし請求項 3の いずれかに記載の手話通訳システム。
5 . 前記接続手段は、 前記非聾哑者用端末に対して送信する音声メッセ —ジを生成する機能を有し、
前記通信手段は、 前記非聾哑者用テレビ電話端末に対して前記生成さ れた音声メッセージを送出する機能を有することを特徴とする、 請求項 4に記載の手話通訳システム。
6 . 前記接続手段は、 前記各端末からの指令により対話中に使用する用 語を登録する機能と、 前記各端末からの指令により前記登録された用語 を取出してテロップを生成する機能とを有し、
前記通信手段は、 前記各端末に対して前記生成されたテロップを送出 する機能を有することを特徴とする、 請求項 1ないし請求項 5のいずれ かに記載の手話通訳システム。
7 . 前記通信手段は、 前記聾哑者用テレビ電話端末に対して、 前記非聾 哑者用テレビ電話端末からの映像と前記手話通訳者用テレビ電話端末か らの映像の一方を親画面とし、 他方を子画面として合成した映像を送出 する機能を有することを特徴とする、 請求項 1ないし請求項 6のいずれ かに記載の手話通訳システム。
8 . 前記通信手段は、 前記非聾哑者用テレビ電話端末に対して前記聾哑 者用テレビ電話端末からの映像を親画面とし、 前記手話通訳者用テレビ 電話端末からの映像を子画面として合成した映像を送出する機能を有す ることを特徴とする、 請求項 1ないし請求項 7のいずれかに記載の手話
9 . 前記通信手段は、 前記手話通訳者用テレビ電話端末に対して前記聾 哑者用テレビ電話端末からの映像と前記非聾哑者からの映像とを合成し た映像を送出する機能を有することを特徴とする、 請求項 1ないし請求 項 8のいずれかに記載の手話通訳システム。
1 0 . 手話のできる聾哑者が使用する聾哑者用テレビ電話端末と、 手話 のできない非聾哑者が使用する非聾哑者用テレビ電話端末と、 手話通訳 者が使用する手話通訳者用テレビ電話端末とを相互に接続して、 聾哑者 と非聾哑者とのテレビ電話対談において手話通訳を提供する方法であつ て、
前記手話通訳者用テレビ電話端末の端末番号が登録される手話通訳者 登録テーブルを備え、 前記聾哑者用テレビ電話端末または前記非聾哑者 用テレビ電話端末のいずれかからの呼出を受付るステツプと、 前記呼出 を受付た呼出元テレビ電話端末から呼出先の端末番号を取得するステツ プと、 前記手話通訳者登録テーブルから手話通訳者の端末番号を取出す ステップと、 前記取出された手話通訳者の端末番号により手話通訳者用 テレビ電話端末を呼出すステツプと、 前記取得された相手先の端末番号 により呼出先テレビ電話端末を呼出すステツプとを有し、 前記聾哑者用テレビ電話端末に対して少なくとも前記非聾哑者用テレ ビ電話端末からの映像と前記手話通訳者用テレビ電話端末からの映像と を合成して送出するステツプと、 前記非聾哑者用テレビ電話端末に対し て少なくとも前記聾哑者用テレビ電話端末からの映像と前記手話通訳者 用テレビ電話端末からの音声とを送出するステツプと、 前記手話通訳者 用テレビ電話端末に対して少なくとも前記聾哑者用テレビ電話端末から の映像と前記非聾哑者用テレビ電話端末からの音声とを送出するステツ プとを有することを特徴とする、 手話通訳方法。
PCT/JP2003/011757 2002-09-17 2003-09-16 手話通訳システムおよび手話通訳方法 Ceased WO2004028161A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2004537564A JPWO2004028161A1 (ja) 2002-09-17 2003-09-16 手話通訳システムおよび手話通訳方法
CA002499097A CA2499097A1 (en) 2002-09-17 2003-09-16 Sign language interpretation system and sign language interpretation method
EP03797602A EP1542465A4 (en) 2002-09-17 2003-09-16 SYSTEM AND METHOD FOR INTERPRETATION OF GESTUAL LANGUAGE
AU2003264434A AU2003264434B2 (en) 2002-09-17 2003-09-16 Sign language interpretation system and sign language interpretation method
US10/527,916 US20060234193A1 (en) 2002-09-17 2003-09-16 Sign language interpretation system and a sign language interpretation method
HK05112171.1A HK1077689A1 (zh) 2002-09-17 2003-09-16 手语翻译系统及手语翻译方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002269850 2002-09-17
JP2002-269850 2002-09-17

Publications (1)

Publication Number Publication Date
WO2004028161A1 true WO2004028161A1 (ja) 2004-04-01

Family

ID=32024821

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/011757 Ceased WO2004028161A1 (ja) 2002-09-17 2003-09-16 手話通訳システムおよび手話通訳方法

Country Status (10)

Country Link
US (1) US20060234193A1 (ja)
EP (1) EP1542465A4 (ja)
JP (1) JPWO2004028161A1 (ja)
KR (1) KR100679871B1 (ja)
CN (1) CN1682535A (ja)
AU (1) AU2003264434B2 (ja)
CA (1) CA2499097A1 (ja)
HK (1) HK1077689A1 (ja)
TW (1) TW200405988A (ja)
WO (1) WO2004028161A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2426247C2 (ru) * 2006-09-30 2011-08-10 Хуавэй Текнолоджиз Ко., Лтд. Система, способ и многоточечный блок управления для реализации многоязычной конференцсвязи
JP2013015939A (ja) * 2011-07-01 2013-01-24 Nec System Technologies Ltd 理解支援システム、支援端末、理解支援方法およびプログラム
CN104463250A (zh) * 2014-12-12 2015-03-25 广东工业大学 一种基于达芬奇技术的手语识别翻译方法
JP2022117644A (ja) * 2021-02-01 2022-08-12 一般財団法人日本財団電話リレーサービス 電話リレーシステム、及びコミュニケーションプラットフォーム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2500999A1 (en) * 2002-09-27 2004-04-08 Ginganet Corporation A videophone interpretation system and a videophone interpretation method
JP4761568B2 (ja) * 2004-05-12 2011-08-31 貴司 吉峰 会話支援装置
US20070239625A1 (en) * 2006-04-05 2007-10-11 Language Line Services, Inc. System and method for providing access to language interpretation
CA2565693C (en) * 2006-10-25 2016-01-05 Universite De Sherbrooke A method of representing information via sign language
CN101539994B (zh) * 2009-04-16 2012-07-04 西安交通大学 一种手语语音互译系统及手语语音互译方法
CN102044128A (zh) * 2009-10-23 2011-05-04 鸿富锦精密工业(深圳)有限公司 紧急事件报警系统及方法
TWI469101B (zh) * 2009-12-23 2015-01-11 Chi Mei Comm Systems Inc 手語識別系統及方法
DE102010009738A1 (de) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Anordnung zum Übersetzen von Lautsprache in eine Gebärdensprache für Gehörlose
US8817966B2 (en) * 2010-07-08 2014-08-26 Lisa Marie Bennett Wrench Method of collecting and employing information about parties to a televideo conference
TWI484450B (zh) * 2011-08-23 2015-05-11 Hon Hai Prec Ind Co Ltd 手語翻譯系統、手語翻譯裝置及手語翻譯方法
JP6158179B2 (ja) * 2012-06-29 2017-07-05 テルモ株式会社 情報処理装置および情報処理方法
JPWO2014087571A1 (ja) * 2012-12-07 2017-01-05 テルモ株式会社 情報処理装置および情報処理方法
US20150019201A1 (en) * 2013-07-09 2015-01-15 Stanley F. Schoenbach Real-time interpreting systems and methods
US10600291B2 (en) 2014-01-13 2020-03-24 Alexis Ander Kashar System and method for alerting a user
US10274908B2 (en) 2014-01-13 2019-04-30 Barbara Ander System and method for alerting a user
US9852656B2 (en) * 2014-01-13 2017-12-26 Barbara Ander Alarm monitoring system
CN103810922B (zh) * 2014-01-29 2016-03-23 上海天昊信息技术有限公司 手语翻译系统
US9276971B1 (en) * 2014-11-13 2016-03-01 Sorenson Communications, Inc. Methods and apparatuses for video and text in communication greetings for the audibly-impaired
CN104540035B (zh) * 2015-01-19 2018-02-23 安徽易辰无障碍科技有限公司 一种无障碍视频手语呼叫系统及方法
CN106375307A (zh) * 2016-08-30 2017-02-01 安徽易辰无障碍科技有限公司 一种抢单式视频云服务无障碍交流方法及系统
CN107231374A (zh) * 2017-07-08 2017-10-03 长沙手之声信息科技有限公司 基于在线手语翻译的聋人远程聊天方法
US10909333B2 (en) * 2017-11-07 2021-02-02 Carrier Corporation Machine interpretation of distress situations using body language
CN107819962A (zh) * 2017-11-09 2018-03-20 上海市共进通信技术有限公司 基于家庭网关实现智能通话功能的系统及方法
US10127833B1 (en) 2017-11-10 2018-11-13 Sorenson Ip Holdings Llc Video relay service, communication system, and related methods for providing remote assistance to a sign language interpreter during a communication session
CN108766434B (zh) * 2018-05-11 2022-01-04 东北大学 一种手语识别翻译系统及方法
CN110083250A (zh) * 2019-05-14 2019-08-02 长沙手之声信息科技有限公司 一种支持手语在线翻译的无障碍会议系统
CN113361505B (zh) * 2021-08-10 2021-12-07 杭州一知智能科技有限公司 基于对比解耦元学习的非特定人的手语翻译方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337631A (ja) * 1993-05-27 1994-12-06 Hitachi Ltd 手話対話における対話制御装置
JP2000152203A (ja) * 1998-11-12 2000-05-30 Mitsubishi Electric Corp ビデオ対応コンピュータ・テレフォニー装置
JP2002064634A (ja) * 2000-08-22 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 通訳サービス方法及び通訳サービスシステム
JP2002169988A (ja) * 2000-12-04 2002-06-14 Nippon Telegr & Teleph Corp <Ntt> 手話通訳提供方法及びシステム
JP2002262249A (ja) * 2001-02-27 2002-09-13 Up Coming:Kk 対話支援システム及び方法、並びにコンピュータプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047952A (en) * 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
JP2779448B2 (ja) * 1988-11-25 1998-07-23 株式会社エイ・ティ・アール通信システム研究所 手話言語変換装置
JP3289304B2 (ja) * 1992-03-10 2002-06-04 株式会社日立製作所 手話変換装置および方法
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5982853A (en) * 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
US6477239B1 (en) * 1995-08-30 2002-11-05 Hitachi, Ltd. Sign language telephone device
EP0848552B1 (en) * 1995-08-30 2002-05-29 Hitachi, Ltd. Sign language telephone system for communication between persons with or without hearing impairment
US5917888A (en) * 1996-06-28 1999-06-29 Mci Communications Corporation System and method for enhanced telecommunications relay service with easy extension feature
US6240392B1 (en) * 1996-08-29 2001-05-29 Hanan Butnaru Communication device and method for deaf and mute persons
JPH10262228A (ja) * 1997-03-18 1998-09-29 Toshiba Corp 通信システム、多地点制御装置、映像情報表示方法
US6570963B1 (en) * 2000-10-30 2003-05-27 Sprint Communications Company L.P. Call center for handling video calls from the hearing impaired
US7333507B2 (en) * 2001-08-31 2008-02-19 Philip Bravin Multi modal communications system
US7774194B2 (en) * 2002-08-14 2010-08-10 Raanan Liebermann Method and apparatus for seamless transition of voice and/or text into sign language

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337631A (ja) * 1993-05-27 1994-12-06 Hitachi Ltd 手話対話における対話制御装置
JP2000152203A (ja) * 1998-11-12 2000-05-30 Mitsubishi Electric Corp ビデオ対応コンピュータ・テレフォニー装置
JP2002064634A (ja) * 2000-08-22 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 通訳サービス方法及び通訳サービスシステム
JP2002169988A (ja) * 2000-12-04 2002-06-14 Nippon Telegr & Teleph Corp <Ntt> 手話通訳提供方法及びシステム
JP2002262249A (ja) * 2001-02-27 2002-09-13 Up Coming:Kk 対話支援システム及び方法、並びにコンピュータプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2426247C2 (ru) * 2006-09-30 2011-08-10 Хуавэй Текнолоджиз Ко., Лтд. Система, способ и многоточечный блок управления для реализации многоязычной конференцсвязи
US9031849B2 (en) 2006-09-30 2015-05-12 Huawei Technologies Co., Ltd. System, method and multipoint control unit for providing multi-language conference
JP2013015939A (ja) * 2011-07-01 2013-01-24 Nec System Technologies Ltd 理解支援システム、支援端末、理解支援方法およびプログラム
CN104463250A (zh) * 2014-12-12 2015-03-25 广东工业大学 一种基于达芬奇技术的手语识别翻译方法
CN104463250B (zh) * 2014-12-12 2017-10-27 广东工业大学 一种基于达芬奇技术的手语识别翻译方法
JP2022117644A (ja) * 2021-02-01 2022-08-12 一般財団法人日本財団電話リレーサービス 電話リレーシステム、及びコミュニケーションプラットフォーム
JP7489106B2 (ja) 2021-02-01 2024-05-23 一般財団法人日本財団電話リレーサービス 電話リレーシステム、及びコミュニケーションプラットフォーム

Also Published As

Publication number Publication date
TW200405988A (en) 2004-04-16
KR20050083647A (ko) 2005-08-26
HK1077689A1 (zh) 2006-02-17
EP1542465A4 (en) 2007-01-03
CN1682535A (zh) 2005-10-12
CA2499097A1 (en) 2004-04-01
JPWO2004028161A1 (ja) 2006-01-19
KR100679871B1 (ko) 2007-02-07
AU2003264434A1 (en) 2004-04-08
AU2003264434B2 (en) 2007-09-20
EP1542465A1 (en) 2005-06-15
US20060234193A1 (en) 2006-10-19

Similar Documents

Publication Publication Date Title
WO2004028161A1 (ja) 手話通訳システムおよび手話通訳方法
KR100695926B1 (ko) 텔레비전 전화 통역 시스템 및 텔레비전 전화 통역 방법
US5848134A (en) Method and apparatus for real-time information processing in a multi-media system
KR100698942B1 (ko) 텔레비젼 전화 수화 대담 보조 장치 및 그것을 이용한 수화 통역 시스템
AU2003264435B2 (en) A videophone sign language interpretation assistance device and a sign language interpretation system using the same.
JP2005056126A (ja) コミュニケーションサービスシステム
US6937265B2 (en) Telecommunications installation
JP2004007482A (ja) 電話会議サーバおよび電話会議システム
JP2003283673A (ja) 電話会議装置
JP2008172359A (ja) Ipインターホンシステム
JPH09149395A (ja) 通信装置
JPS61224628A (ja) 複合通信通訳システム
JPH04294667A (ja) マルチメディア端末
JPH04302561A (ja) マルチメディア通信システム
JP2007058681A (ja) 電子会議支援装置
JP2006094272A (ja) 電話装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 1020057002914

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004537564

Country of ref document: JP

Ref document number: 2499097

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 20038219395

Country of ref document: CN

Ref document number: 167488

Country of ref document: IL

WWE Wipo information: entry into national phase

Ref document number: 2003797602

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2003264434

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 638/KOLNP/2005

Country of ref document: IN

WWP Wipo information: published in national office

Ref document number: 2003797602

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057002914

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2006234193

Country of ref document: US

Ref document number: 10527916

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10527916

Country of ref document: US