会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~
热词
    • 21. 发明公开
    • 인간형 로봇의 동작 및 표정 합성 장치 및 방법
    • 运动和表情表达组合装置和方法在人类机器人
    • KR1020080057400A
    • 2008-06-25
    • KR1020060130633
    • 2006-12-20
    • 한국생산기술연구원
    • 양광웅이호길김진영이상원이동욱최동희
    • B25J9/16B25J13/00
    • An apparatus and a method for synthesizing facial expressions and operations of a humanoid robot are provided to employ a motor mediator to mediate outputs made by at least one behavior and a behavior-based controller to select and perform desired operations and facial expressions with respect to a sensor input of a robot and an upper-level task output. An apparatus for synthesizing facial expression of a robot includes a sensor module(100), a recognition module(300), a scenario module(400), a task module(500), a behavior-based controller(600), and a motor mediator(700). The sensor module receives information about a real environment to convert the information into a voltage processed by the robot. The recognition module extracts necessary information from various types of information. The scenario module makes user commands into a scenario so that the robot sequentially performs the user commands. The task module processes tasks divided into unit operations. The controller selects and performs an adjustable operation and facial expression. The motor mediator mediates colliding outputs.
    • 提供了一种用于合成人形机器人的面部表情和操作的装置和方法,以使用电动机中介器来介导由至少一个行为和基于行为的控制器所产生的输出,以选择并执行相对于 机器人的传感器输入和上级任务输出。 一种用于合成机器人面部表情的装置,包括传感器模块(100),识别模块(300),场景模块(400),任务模块(500),基于行为的控制器(600) 介体(700)。 传感器模块接收关于真实环境的信息,以将信息转换成由机器人处理的电压。 识别模块从各种类型的信息中提取必要的信息。 场景模块使用户命令进入场景,使机器人顺序执行用户命令。 任务模块将任务分为单元操作。 控制器选择并执行可调节的操作和面部表情。 运动调解员调停碰撞输出。
    • 24. 发明授权
    • 감정표현이 가능한 영상/음성 기반 로봇용 안구
    • 基于图像和声音显示情感的机器人眼球
    • KR101334646B1
    • 2013-11-29
    • KR1020120024274
    • 2012-03-09
    • 한국생산기술연구원
    • 이덕연허만홍이동욱최동운안호석
    • B25J19/00B25J13/00
    • 카메라 및 마이크를 안구 내에 구비하여 영상과 음성을 수신하고, 저장된 시나리오에 따라 상기 영상과 음성에 대응되는 상황을 결정하고, 상기 상황에 따라 LED 모듈의 광원을 출력하는 영상/음성 기반 로봇용 안구에 관한 것으로서, 반구형이고, 중앙에 반구형의 홈(이하 동공 홈)을 구비하는 본체; 상기 동공 홈에 삽입되어 설치되는 카메라; 상기 동공 홈의 내측에 부착되는 다수의 LED 모듈; 본체의 상단에 맞닿는 상기 동공 홈의 원형 테두리에 설치되는 마이크; 및, 상기 카메라 및 상기 마이크로부터 각각 영상 및 음성을 수신하고, 상기 LED 모듈의 광원의 색 및 세기를 제어하여 표시하는 제어부를 포함하는 구성을 마련한다.
      상기와 같은 영상/음성 기반 로봇용 안구에 의하여, 자체 메모리에 저장되는 시나리오 데이터를 이용하여 호스트에 의존하지 않고, 자체적으로 영상 및 음성을 분석하여 LED 모듈을 통해 다양한 안구의 감정을 표출할 수 있다.
    • 25. 发明公开
    • 로봇의 학습이 가능한 감정생성장치 및 감정생성방법
    • 用于产生机器人情感的装置和方法
    • KR1020130091364A
    • 2013-08-19
    • KR1020110142320
    • 2011-12-26
    • 한국생산기술연구원
    • 안호석이동욱손웅희
    • B25J9/16G06F9/455
    • PURPOSE: A feeling generation device making a robot learn feelings and a method for generating feelings are provided to generate the feeling that a user wants by changing the distribution of feelings arranged in a feeling space by the learning of the user and to encourage the interest of the user by making the robot express the feelings that the user empathizes with. CONSTITUTION: A feeling generation device making a robot learn feelings comprises an emotional status inputting unit (10), an emotional determination processing unit (20), an emotional express processing unit (50), a learning plan unit (30) and a user input unit (40). The emotional determination processing unit determines the feeling value of a robot by setting the value inputted by the emotional status inputting unit on a feeling coordinate system. The emotional express processing unit performs an emotional express depending on the feeling value determined by the emotional determination processing unit. The learning plan unit changes an emotional probability distribution by using feedback information corresponding to one point of the feeling coordinate system. [Reference numerals] (10) Emotional status inputting unit; (20) Emotional determination processing unit; (30) Learning plan unit; (40) User input unit; (50) Emotional express processing unit
    • 目的:提供一种使机器人学习感觉的感觉产生装置和产生感觉的方法,以通过改变通过用户的学习而布置在感觉空间中的感觉分布来产生用户想要的感觉,并且鼓励使用者 用户通过使机器人表达用户同情的感觉。 构成:使机器人学习感觉的感觉产生装置包括情绪状态输入单元(10),情感判定处理单元(20),情绪表达处理单元(50),学习计划单元(30)和用户输入 单位(40)。 情绪判定处理单元通过将由情绪状态输入单元输入的值设定在感觉坐标系上来确定机器人的感觉值。 情绪表达处理单元根据感情确定处理单元确定的感觉值进行情感表达。 学习计划单元通过使用与感觉坐标系的一个点对应的反馈信息来改变情绪概率分布。 (附图标记)(10)情绪状态输入单元; (20)情绪决定处理单位; (30)学习计划单位; (40)用户输入单元; (50)情感快递处理单位
    • 27. 发明公开
    • 로봇용 안구 장치
    • 机器眼球装置
    • KR1020120077454A
    • 2012-07-10
    • KR1020100139407
    • 2010-12-30
    • 한국생산기술연구원
    • 최동운이동욱이호길박현섭
    • B25J19/00A61F2/14
    • PURPOSE: An eyeball device for a robot can provide free vertical and lateral movement of a ball socket with an elastic member. CONSTITUTION: An eyeball device for a robot comprises a ball member(110), an eyeball-shaped ball socket(130), and a rod-shaped elastic member(150). The ball member has a hollow portion(111) and a first fixing portion(115). The hollow portion is formed in a cut front portion of a ball joint shaft. The first fixing portion is formed at the bottom side(113) of the hollow portion. A second fixing portion of the ball socket is formed in a joint cell receiving the ball member. Each end of the elastic member is fixed in the first and second fixing portions and has a thickness smaller than the width of the hollow portion.
    • 目的:用于机器人的眼球装置可以提供具有弹性构件的球窝的免费垂直和横向移动。 构成:用于机器人的眼球装置包括球部件(110),眼球形球窝(130)和杆状弹性部件(150)。 球部件具有中空部(111)和第一固定部(115)。 中空部分形成在球窝接头轴的切割前部。 第一固定部分形成在中空部分的底侧(113)处。 球窝的第二固定部形成在接收球部件的接头单元中。 弹性构件的每个端部固定在第一和第二固定部分中,并且其厚度小于中空部分的宽度。
    • 28. 发明授权
    • 안드로이드 로봇 및 그 이용방법
    • ANDROID机器人和使用ANDROID机器人的方法
    • KR101159133B1
    • 2012-06-25
    • KR1020090133126
    • 2009-12-29
    • 한국생산기술연구원
    • 이덕연이동욱이호길박현섭손웅희
    • B25J19/00B25J13/00
    • 본 발명은 안드로이드 로봇에 관한 것으로서, 복수의 마이크로폰과, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터와, 상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱과, 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서와, 상기 변환된 음성 신호를 분석하고 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서와, 상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부를 포함한다. 이러한 본 발명에 의해, 안드로이드 로봇은 상대방의 음성 인식시 단순히 음성만을 인식하지 않고 음성을 내는 상대방의 위치를 파악하여, 상대방의 음성 및 위치에 대응하는 적절한 반응을 할 수 있다.
      안드로이드 로봇, 음원 프로세서, 음원 추적
    • 29. 发明公开
    • 안드로이드용 얼굴 로봇
    • 黑社会机器人
    • KR1020110077742A
    • 2011-07-07
    • KR1020090134392
    • 2009-12-30
    • 한국생산기술연구원
    • 허만홍이동욱이호길박현섭김홍석
    • B25J19/00A61F2/00
    • PURPOSE: A face robot for Android is provided to enable a robot to make a smiling face since the upper lip moves up and enters a space under the end of the nose of the inner cover. CONSTITUTION: A face robot for Android comprises the inner cover(10), the outer cover(20) and a mechanism unit. The inner cover forms the frame of the face. The outer cover is formed from a soft material. The outer cover is attached to the outside of the inner cover. The mechanism makes the outer cover move. A part of the lower ridge and rounded sides of the end(13) of the nose of the inner cover are cut to form a space(15). In order not to prevent the movement of the upper lip(25), the upper lip enters the space.
    • 目的:提供一种面向Android的面部机器人,使机器人能够进行微笑,因为上唇向上移动并进入内盖鼻部末端的空间。 构成:用于Android的面部机器人包括内盖(10),外盖(20)和机构单元。 内盖形成面的框架。 外盖由柔软的材料形成。 外盖连接到内盖的外侧。 该机构使外盖移动。 内盖的鼻部的端部(13)的下脊和圆形侧的一部分被切割以形成空间(15)。 为了防止上唇(25)的移动,上唇进入空间。
    • 30. 发明公开
    • BLDC 모터를 이용한 안드로이드 로봇의 얼굴 표정 표현 장치 및 방법 그리고 이를 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
    • 用于表示使用无刷直流电动机的手持式机器人的装置和方法以及用于执行该方法的计算机可读介质记录程序
    • KR1020110076430A
    • 2011-07-06
    • KR1020090133132
    • 2009-12-29
    • 한국생산기술연구원
    • 이덕연이동욱이호길박현섭
    • B25J11/00B25J9/12
    • PURPOSE: A facial expression display device and method of android robot by BLDC motor and reading media recording the program, performing the same, using computer are provided to prevent mismatch between word and facial expression due to slow reaction. CONSTITUTION: A facial expression display device of android robot by BLDC motor comprises a communication unit(110), a facial expression controller(120), a motor driver(130), and a BLDC motor. The communication unit receives emotion data from a host controller(200). The facial expression controller generates emotion data according to facial expression data. The motor driver is operated according to facial expression data. The BLDC motor is connected to the fixed point of the face skin organization and is driven with the motor driver. The BLDC motor physically converts facial skin tissue of connected spots.
    • 目的:通过BLDC电机和阅读媒体记录程序,使用计算机执行相同程序的Android机器人的面部表情显示装置和方法被提供,以防止由于反应缓慢而引起的词和面部表情之间的不匹配。 构成:BLDC电动机的Android机器人的面部表情显示装置包括通信单元(110),面部表情控制器(120),电动机驱动器(130)和BLDC电动机。 通信单元从主机控制器(200)接收情绪数据。 面部表情控制器根据面部表情数据产生情感数据。 电机驱动器根据面部表情数据进行操作。 BLDC电机连接到面部皮肤组织的固定点,并由电机驱动器驱动。 BLDC马达物理转换连接点的面部皮肤组织。