会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
热词
    • 6. 发明授权
    • Music contents production device using tts
    • 使用TTS的音乐内容制作装置
    • KR100994340B1
    • 2010-11-12
    • KR20100029544
    • 2010-03-31
    • TGENS CO LTD
    • YEOM JONG HAKKANG WON MO
    • G10L13/10G11B20/10G11B27/031
    • PURPOSE: A musical content composition device using text-to-speech is provided to easily create musical contents to be used in person or sold. CONSTITUTION: A musical content composition device using text-to-speech comprises a music reproduction information acquiring unit(110), a sentence construction analyzing unit(120), a pronunciation converting unit(130), an optimum phoneme selecting unit(140), a sound source selecting unit(150), a rhythm control unit(160), a voice converting unit(170), a tone converting unit(180), and a song and background music synthesizing unit. The music reproduction information acquiring unit acquires lyrics, singers, tracks, musical scales, sound lengths, bits, tempo, and musical effects for music reproduction. The sentence construction analyzing unit analyzes sentences of the lyrics obtained by the music reproduction information acquiring unit and changes into the form defined according to linguistic characteristics. The pronunciation converting unit changes the analyzed data into phonemes. The optimum phoneme selecting unit selects the optimum phonemes corresponding to the lyrics extracted through the sentence construction analyzing unit and the pronunciation converting unit. The sound source selecting unit selects a sound source corresponding to the phonemes selected by the optimum phoneme selecting unit based on singer information obtained by the music reproduction information acquiring unit. The rhythm control unit controls the length and pitch of the optimum phonemes combined according to the characteristics of the sentences of the lyrics. The voice converting unit matches the sentences of the lyrics to output voice according to the musical scales, sound lengths, bits, and tempo obtained by the music reproduction information acquiring unit. The tone converting unit matches tones to the voice to be reproduced according to the musical effects obtained by the music reproduction information acquiring unit. The song and background music synthesizing unit synthesizes the background music information obtained by the music reproduction information acquiring unit and the tones finally converted by the tone converting unit.
    • 目的:提供使用文字到语音的音乐内容合成装置,以容易地创建要亲自或销售的音乐内容。 构成:使用文本到语音的音乐内容合成装置包括音乐再现信息获取单元(110),句子构造分析单元(120),发音转换单元(130),最佳音素选择单元(140) 声源选择单元(150),节奏控制单元(160),语音转换单元(170),音调转换单元(180)以及歌曲和背景音乐合成单元。 音乐再现信息获取单元获取用于音乐再现的歌词,歌手,曲目,音阶,声音长度,比特,速度和音乐效果。 句子构造分析单元分析由音乐再现信息获取单元获得的歌词的句子,并将其改变为根据语言特征定义的形式。 发音转换单元将分析的数据更改为音素。 最佳音素选择单元选择与通过句子构造分析单元和发音转换单元提取的歌词相对应的最佳音素。 声源选择单元基于由音乐再现信息获取单元获得的歌手信息来选择与由最佳音素选择单元选择的音素对应的声源。 节奏控制单元根据歌词句子的特征来控制最佳音素的长度和音高。 语音转换单元根据由音乐再现信息获取单元获得的音阶,声音长度,比特和速度来匹配歌词的语句以输出语音。 色调转换单元根据由音乐再现信息获取单元获得的音乐效果将音调与要再现的语音相匹配。 歌曲和背景音乐合成单元合成由音乐再现信息获取单元获得的背景音乐信息和由音调转换单元最终转换的音调。
    • 7. 发明授权
    • 스피치 합성 방법
    • 语音合成方法
    • KR100769033B1
    • 2007-10-22
    • KR1020067006170
    • 2004-09-17
    • 모토로라 솔루션즈, 인크.
    • 첸팡첸기-린
    • G10L13/10G10L13/06
    • G10L13/07
    • 다수의 스피치 샘플들(140)을 포함하는 발화 파형 코퍼스(60)와 텍스트 세그먼트(120)를 비교하는 것을 포함하는 스피치 합성 수행 방법. 이 방법은 하나의 스피치 샘플(140)과 텍스트 세그먼트(120) 사이의 문맥상 최상의 매칭이 존재하는지 여부를 결정한다. 문맥상 최상의 매칭이 존재하지 않는 경우, 이 방법은 텍스트 세그먼트(120)와 스피치 샘플(140) 사이에 문맥 표음 혼성 매칭이 존재하는지 여부를 결정한다. 문맥 표음 혼성 매칭은 규정된 운율 특징 그룹(220)내의 모든 내재적 운율 특징들(210)의 매칭을 필요로 한다. 이 매칭이 여전히 발견되지 않는 경우, 운율 특징 그룹(220)은 운율 특징 그룹(220)으로부터 내재적 운율 특징들(210) 중 하나를 삭제함으로써 재규정된다. 운율 특징 그룹(220)은 입력 텍스트 세그먼트(120)와 스피치 샘플(140) 사이에 매칭이 발견될 때까지, 운율 특징 그룹(220)으로부터 하나의 내재적 운율 특징(210)을 제거함으로써 연속적으로 재규정된다. 매칭이 발견될 대, 매칭된 스피치 샘플(140)이 연쇄 스피치(110)를 생성하기 위해 사용된다.
      텍스트 메모리 모듈, 스피치 합성기, 병음, 음조 문맥, 동시조음
    • 8. 发明公开
    • 연쇄적 텍스트-음성 변환
    • 连续的文本转语音转换
    • KR1020050021567A
    • 2005-03-07
    • KR1020057001367
    • 2003-07-24
    • 모토로라 솔루션즈, 인크.
    • 후앙,지안,쳉첸,팡
    • G10L13/10
    • 본 발명은 텍스트를 분할된 음성 유닛들로 분할(S303)하고나서 상기 음성 유닛들 각각에 대해 적합한 음향 유닛을 식별(S304)하는 단계(S303)를 포함하는 텍스트-음성 변환(S300) 방법을 제공한다. 각각의 음향 유닛 AU는 음향 세그먼트들의 음향 유사성에 의해 결정되는 음성 클러스터를 형성하는 음향 세그먼트들을 대표한다. 이후 상기 방법(S300)은 음향 유닛 AU의 운율(prosodic) 파라미터들과 각각의 상기 음성 유닛들 사이의 변동들을 결정(S305)하는 단계를 수행한다. 상기 음향 유닛 및 관련된 변동들의 상기 음성 파라미터들로부터 음향 파라미터들을 생성(S306)하는 단계는 이후 수행되고 그리고나서 상기 음향 파라미터들에 기초하는 출력 음성 신호를 제공하는 단계(S307)에 영향을 미친다. 본 발명은 향상된 합성 음질, 시스템 성능 및 휴대용 디바이스들을 위해 적당히 줄여진 메모리 비용을 제공할 수도 있다.
    • 9. 发明公开
    • 한국어 대화체 음성합성시스템의 특정 형태에 대한 선택적운율 구현 방법
    • 在韩国对话文本到语音系统中选择一个特定形式的计量表的方法,可以不同地形成适用于对话连接或语音类型的计量表
    • KR1020050006936A
    • 2005-01-17
    • KR1020030046926
    • 2003-07-10
    • 한국전자통신연구원
    • 오승신최미란이영직김상훈
    • G10L13/10
    • PURPOSE: A method for selectively embodying a metre with respect to a specific form in a Korean dialogue text-to-speech system is provided to variously embody the metre suitable for dialogue connection or a sentence type by selectively extracting a corresponding speech segment from a synthesis unit DB. CONSTITUTION: If a pre-processed Korean dialogue sentence is inputted, a speech act tagging work of the input sentence is performed(S20). It is discriminated whether a specific element to selectively embody a metre is included in the input sentence in which the speech act tagging work is completed(S30). If the specific element is included, a tagging work of the specific element is performed using a work tagging table to correspond to speech act information of a preceding sentence and a following sentence including the specific element(S40). If a specific element with the same form to selectively embody the metre is not included in the input sentence, it is discriminated whether a question-type ending to selectively embody the metre is included in the input sentence(S50). It is discriminated whether the question-type ending to selectively embody the metre is included in the input sentence. If the question-type ending is included, a tagging work of the question-type ending is performed using a question-type ending tagging table to correspond to the question type(S60). If the question-type ending is not included in the input sentence, a text tagged to the specific element is output(S70). If a tagging text for the specific element is output, a corresponding speech segment is extracted from a synthesis unit DB to be suitable for a tag with a tagged form(S80). The extracted speech segments are added to the other speech segments to generate a dialogue synthesis sound(S90).
    • 目的:提供一种用于在韩语对话文本到语音系统中选择性地体现相对于特定形式的仪表的方法,以通过从合成中选择性地提取对应的语音片段来不同地体现适合于对话连接的语音表或句型 单位DB。 规定:如果输入了预处理的韩语对话语句,则执行输入语句的语音动作标记工作(S20)。 区分语音动作标注工作完成的输入句子中是否包含选择性地体现仪表的特定要素(S30)。 如果包括特定元素,则使用工作标签表来执行特定元素的标记工作,以对应于包括特定元素的前一句和下一句的语音动作信息(S40)。 如果具有选择性地体现仪表的相同形式的特定元件不包括在输入语句中,则判别在输入语句中是否包括选择性地体现仪表的问题类型结尾(S50)。 判断输入句中是否包含选择性地体现仪表的问题类型结尾。 如果包括问题类型结束,则使用问题类型结束标签表来执行问题类型结束的标记工作,以对应于问题类型(S60)。 如果问题类型结束不包括在输入句子中,则输出标记到特定元素的文本(S70)。 如果输出特定元素的标签文本,则从合成单元DB提取相应的语音片段以适合具有标记形式的标签(S80)。 所提取的语音片段被添加到其他语音片段以产生对话合成声音(S90)。