会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
热词
    • 21. 发明公开
    • 차량 음성인식시스템을 위한 상황 분석 장치 및 방법
    • 车辆语音识别系统情况分析装置及方法
    • KR1020160063148A
    • 2016-06-03
    • KR1020140166793
    • 2014-11-26
    • 현대자동차주식회사
    • 박성수백순권방규섭
    • G10L15/28G10L15/14
    • G10L15/28G10L15/14G10L15/285
    • 차량음성인식시스템을위한상황분석장치및 방법이제공되며, 본발명의하나의실시예에따른상황분석장치는복수개의명령(instruction)이저장되어있는메모리(memory), 그리고메모리에연결되어있고복수개의명령에반응하는프로세서(processor)를포함하고, 복수개의명령은, 미리저장되어있는차량상황별음성데이터의패턴을학습하고상황예측모델을생성하는상황예측모델생성명령, 차량탑승자의음성데이터에대한음성인식이실패하는경우실패원인을분석하는원인분석명령, 그리고실패원인관련정보를차량탑승자에게제공하는출력명령을포함한다.
    • 提供了一种用于分析车辆语音识别系统的情况的装置和方法。 根据本发明的实施例的分析情况的装置包括:存储指令的存储器和连接到存储器并响应指令的处理器。 指令包括:根据存储的车辆饱和度学习语音数据模式的情境预测模型指令,并且生成情境预测模型,分析当乘员的语音数据的语音识别失败时的失败原因的原因分析指令 以及向乘客提供关于故障原因的信息的输出指令。 因此,该装置可以向用户通知该情况。
    • 24. 发明授权
    • 개인 음색을 반영한 통계적 음성합성 시스템 및 방법
    • 具有个性化合成语音的统计语音合成系统与方法
    • KR101567566B1
    • 2015-11-06
    • KR1020140061532
    • 2014-05-22
    • 부산대학교 산학협력단
    • 김형순반성민최영호
    • G10L15/02G10L15/14G10L15/28
    • G10L13/04G10L15/02G10L15/14G10L15/28
    • 본발명은통계적음성합성시스템에서말장애환자의음색특성을반영한합성음을생성하여의사소통개선이가능하도록한 개인음색을반영한통계적음성합성시스템및 방법에관한것으로, 말장애환자로부터단모음음성을수집하는단모음음성수집부;상기단모음음성수집부에서수집된단모음음성과통계적음성합성시스템의음향모델중 해당단모음모델을비교하여포먼트기반의쌍선형변환화자적응파라미터를추출하는화자적응파라미터추출부;상기화자적응파라미터추출부에서추출된화자적응파라미터를적용하여화자특성을반영하는합성음을생성하는합성음생성부;상기합성음생성부에서생성된합성음의음색을선택적으로튜닝하는합성음튜닝부;를포함하는것이다.
    • 本发明涉及一种应用个性化语音的统计语音合成系统及其方法,其中在统计语音合成系统中生成具有应用语音障碍的患者的语音特征的合成声音,以改善患者的通信。 统计语音综合系统包括:一个短元音声音收集单元,收集来自病人语音障碍的短元音; 扬声器适配参数提取单元,其将收集在短元音语音收集单元中的短元音与来自统计语音合成系统的声音模型的相关短元音模型进行比较,并且基于共振峰提取双线性转换说话者自适应参数; 合成声音产生单元,其通过应用在说话者自适应参数提取单元中提取的说话者自适应参数来产生应用了扬声器的特性的合成声音; 以及合成声音调谐单元,其选择性地调谐在合成声音产生单元中产生的合成声音的音色。
    • 27. 发明公开
    • 음성인식 성능향상 방법
    • 语音识别性能改进方法
    • KR1020140077422A
    • 2014-06-24
    • KR1020120146227
    • 2012-12-14
    • 한국전자통신연구원
    • 이성주강병옥정훈이윤근
    • G10L15/14
    • G10L15/14G10L19/038G10L21/02G10L2015/025
    • A method for improving a voice recognition performance according to an embodiment of the present invention is provided to improve a voice recognition performance for a voice inputted under noise circumstances based on at least a single voice recognition feature vector. The method for improving a voice recognition performance according to an embodiment of the present invention includes the steps of: extracting at least two or more feature vectors according to at least two or more sound models which are set by each phoneme for an inputted Korean voice; extracting an observation probability value by each phoneme through the previous feature vectors of at least two or more sound models and at least two or more feature vectors which are preset for an integrated sound model activated in a viterbi decoder; and resetting the integrated sound model based on the extracted observation probability value by each phoneme, and re-recognizing the Korean voice by each phoneme.
    • 提供了根据本发明的实施例的用于提高语音识别性能的方法,用于基于至少单个语音识别特征向量来改善在噪声环境下输入的语音的语音识别性能。 根据本发明实施例的用于提高语音识别性能的方法包括以下步骤:根据由输入的韩语语音的每个音素设置的至少两个或多个声音模型提取至少两个或更多个特征向量; 通过至少两个或多个声音模型的先前特征向量和至少两个或更多个为维特比解码器中激活的综合声音模型预设的特征向量提取每个音素的观测概率值; 并根据每个音素提取的观察概率值重新设置综合声音模型,并通过每个音素重新识别韩语声音。
    • 28. 发明公开
    • 다국어 공통 음소셋를 이용한 음향모델 재학습방법 및 장치
    • 使用多语言联络电话机的声学模型重新绘制方法和装置
    • KR1020140059545A
    • 2014-05-16
    • KR1020120126111
    • 2012-11-08
    • 한국전자통신연구원
    • 김동현김상훈김승희김영익이민규왕지현최무열김기현
    • G10L15/14
    • G10L15/14G10L15/005G10L2015/025
    • The present invention relates to a retraining method by complementing insufficient audio data for a particular language and without changing the structure of the acoustic model simultaneously using a joint phone which is included in the multilingual audio data. Speech data for each language must be fully prepared in order to create an acoustic model of a multi-continuous speech recognition device but consumes a lot of costs and time in general. And the present invention can define common phonemes to be used for a phoneme symbol which is acoustically same between multiple languages. Provided is a selective retraining method using the common phoneme in the language which has a large amount of the audio data in order to train the language of insufficient memory on the basis of above.
    • 本发明涉及一种通过补充特定语言的不足的音频数据并且不使用包括在多语言音频数据中的联合电话同时改变声学模型的结构的再培训方法。 必须对每种语言的语音数据进行全面准备,以创建多连续语音识别设备的声学模型,但通常会消耗大量成本和时间。 并且本发明可以定义要用于在多种语言之间声学上相同的音素符号的共同音素。 提供了一种选择性再培训方法,其使用具有大量音频数据的语言中的公共音素,以便基于上述来训练不足的存储器的语言。
    • 29. 发明公开
    • 구문 전처리 기반의 구문 분석 장치 및 그 방법
    • 基于协同预处理的装置与方法
    • KR1020140056753A
    • 2014-05-12
    • KR1020120122372
    • 2012-10-31
    • 에스케이플래닛 주식회사
    • 황영숙윤창호
    • G06F17/20G06F17/27
    • G10L15/19G06F17/27G06F17/271G06F17/2775G10L15/14
    • The present invention relates to an apparatus and method for syntactic parsing based on syntactic pre-processing. More particularly, the present invention can reduce ambiguity of syntactic parsing in a rule-based approach, solve ambiguity by a statistic-based approach, and improve analysis accuracy and processing efficiency in a syntactic parsing process by parsing syntax that are able to be parsed by rules and patterns without ambiguity through syntactic parsing pre-processing, deriving all possible syntactic parsing results by applying syntax rules on the basis of a syntactic parsing pre-processing result which ambiguity is partially solved, and by solving structural ambiguity by applying a statistical syntactic parsing model learned from learning corpuses to which a syntax tree is attached.
    • 本发明涉及一种基于句法预处理的语法解析的装置和方法。 更具体地,本发明可以减少基于规则的方法中的句法解析的歧义,通过基于统计的方法解决歧义,并且通过解析语法来提高语法解析过程中的分析精度和处理效率,语法能够被解析 规则和模式,通过语法分析预处理,无歧义,通过在句法解析预处理结果的基础上应用语法规则来导出所有可能的语法解析结果,这些模糊度被部分解决,并通过应用统计语法解析来解决结构歧义 从学习语料库学习的模型,语法树被附加到该语料库。
    • 30. 发明公开
    • 음성 신호 처리 방법과 장치, 및 액세스 네트워크 시스템
    • 用于语音信号处理的方法和设备,以及接入网络系统
    • KR1020140015577A
    • 2014-02-06
    • KR1020137034254
    • 2011-05-27
    • 후아웨이 테크놀러지 컴퍼니 리미티드
    • 웨이,유에준탕,신주,치안
    • H03M13/09H03M13/23H03M13/41H04B7/155
    • G10L15/14G06F11/1004H04L1/0054H04L1/0059H04L1/0061H04L1/0065H04L1/007
    • 본 발명의 실시예들은 음성 신호 처리 방법, 장치 및 액세스 네트워크 시스템을 제공한다. 이 음성 신호 처리 방법은 사용자 장비(UE)로부터 전송된 인코딩 음성 신호를 수신하는 단계 - 인코딩된 음성 신호는 제1 서브스트림, 제2 서브스트림 및 제3 서브스트림을 포함하고, 제1 서브스트림은 순환 중복 검사(CRC)를 포함함 - (301); 디코딩 알고리즘을 채용함으로써 제1 서브스트림, 제2 서브스트림 및 제3 서브스트림의 디코딩 처리를 수행하는 단계 - 제1 서브스트림의 디코딩 처리를 수행하기 위해 CRC의 보조 결정에 기초하는 디코딩 알고리즘이 채용됨 - (302); 및 제1 서브스트림, 제2 서브스트림 및 제3 서브스트림의 디코딩 결과들을 기지국 제어기로 전송하는 단계 - 제1 서브스트림의 디코딩 결과는 디코딩된 비트 스트림 및 CRC 검사 결과를 포함함 - (303)를 포함한다. 본 발명의 실시예들은 제1 서브스트림의 디코딩 성능을 개선함으로써, 음성 품질을 개선하고, 음성 품질에 대한 사용자들의 더 높은 요구들을 충족시킬 수 있다.
    • 本发明实施例提供了一种处理语音信号的方法,装置和接入网系统。 处理语音信号的方法包括接收从用户设备(UE)发送的编码语音信号,其中编码语音信号包括第一子流,第二子流和第三子流, 包括循环冗余校验(CRC) - (301); 通过采用的解码算法的第一子流和第二子流和执行第三子流的解码处理的步骤中,第一采用基于CRC的,以执行子流之中的解码处理的二级晶体的解码算法 - (302); 并且将第一子流,第二子流和第三子流的解码结果发送给基站控制器,第一子流的解码结果包括解码比特流和CRC校验结果 它包括。 本发明实施例通过提高第一子流的解码性能,可以提高语音质量,满足用户对语音质量的更高要求。