本发明涉及人工智能领域,特别涉及一种宠物机器人的情感交流方法。
背景技术:
宠物机器人是一种用来模拟人类饲养的猫和狗等宠物的机器,其作为宠物的替代品,用于贴近老年人、儿童,看护设施、照料家庭成员、主人或者他人,通过使用机器人技术来实现宠物给与接触它们的人治愈感和舒适感。
如图1为现有技术中人与机器人进行信息交流的示意图,信息交流与情感交流不同,是以收发信息为目的,机器人配备了个人电脑的显示屏,通过操作该显示屏或者语音的方式与机器人进行交流。
现有的机器人与宠物之间的交流通常局限于单纯的对话,无法通过宠物机器人的身体动作表达多种多样的情感。比如人与宠物一起生活,主人会用手抚摸宠物来表达爱意,宠物也会对此作出相应的反应,但宠物机器人就很难模拟狗和猫之类的动物动作,主人也就很难知晓宠物当下的情感,在饲养真实宠物的情况下,主人可以通过宠物的眼睛、面部动作、声音等来判断猫和狗是否能接受主人的感情表达方式,但是,如果是宠物机器人,可以想象这种表达很难充分实现,这就导致现有的宠物机器人难以与宠物主人充分地实现情感交流。
技术实现要素:
本发明所要解决的技术问题是提供一种宠物机器人的情感交流方法,通过宠物机器人的头部和四肢的不同动作,以及在宠物机器人的眼睛位置设置显示器,模拟眼睛的动作并显示不同的图标来表现出宠物机器人的不同情绪,不再单纯用声音和人进行对话,从而实现情感表达更加丰富的宠物机器人和人之间的交流方式。
本发明解决上述技术问题所采用的技术方案为:
宠物机器人的情感交流方法,包括以下步骤:
1)通过数据采集模块检测人的动作、表情以及声音指令信息;
2)通过处理器分析步骤1)中检测的信息内容,并作出相应的控制指令至运动模块、影像输出模块和语音输出模块;
3)运动模块根据处理器的控制指令控制头部以及四肢运动,并通过影像输出模块显示眼睛的动作和/或显示不同的图像来表达宠物机器人的情绪,以及通过语音输出模块模拟输出动物的叫声以表达宠物机器人的情绪状态。
作为优选,所述步骤1)中通过数据采集模块采集宠物机器人前方的图像信息、宠物机器人附近的人声和环境声音以及宠物机器人表面的触摸信号,并将采集到的图像信息、声音信息以及触摸信息发送至处理器,所述处理器分析并判断出人的情绪以及指令,然后控制宠物机器人作出相应的情绪表达。
作为优选,所述步骤1)的数据采集模块还能够采集到宠物机器人与周围物体之间的距离信息,所述步骤2)中的处理器根据图像信息以及距离信息分析出宠物机器人前方的障碍物以及主人的位置,并转化为相应的指令输出至运动模块以避开障碍物并能够跟随主人运动。
作为优选,所述影像输出模块包括显示器,所述显示器设置有两个,分别位于头部的左、右眼睛位置,通过显示眼睛的动作和/或不同的图像来表达所述宠物机器人的情绪。
作为优选,当步骤3)中所述宠物机器人的运动模块受限时,所述处理器能够输出相应的求助信号至所述影像输出模块和/或语音输出模块,通过影像输出模块显示不同的眼部画面模拟宠物眼部的求助状态,和/或通过所述语音输出模块发出求助的声音。
作为优选,所述处理器通过wifi、bluetooth通信单元能够与智能手表或者智能手环无线连接,获取佩戴智能手表或者智能手环的人表征是否健康的实时数据,并通过处理器判断佩戴者是否健康,当处理器判断佩戴者的健康状况异常时,所述处理器会转化为相应的控制指令分别输送至运动模块、影像输出模块和语音输出模块,进而与佩戴者进行交流,并发送短信或者电子邮件通知预定的联系人。
作为优选,所述处理器通过传感器信号记录单元按照时间顺序记录来自数据采集模块的信息以及宠物机器人所采取的动作,与存储了基础判断信息的ai知识单元共同作为学习素材提供给ai学习单元,用于供宠物机器人学习。
作为优选,所述处理器通过记录在传感器信号记录单元中的主人反应案例推算并选择主人喜欢的情感表现,然后通过运动模块、影像输出模块以及语音输出模块进行表达。
作为优选,所述运动模块能够模拟宠物机器人趴、坐、站、步行、跑、睡觉和起身的动作;所述影像输出模块通过显示不同的图像模拟撒娇、喜悦、生气、悲伤、憎恶、饥饿、饱、热和冷的感受;所述语音输出模块能够模拟吠、鸣和呻吟的声音。
作为优选,宠物机器人的头部与本体之间、四肢与本体之间以及四肢的关节处,均通过马达连接,所述步骤3)中通过马达驱动头部相对于本体上下摆动和/或左右摆动,驱动四肢相对于本体运动以及驱动四肢的下肢相对于上肢运动。
与现有技术相比,本发明的宠物机器人的情感交流方法的优点在于,
1、宠物机器人不仅能够拾取主人的声音,还能够通过作为图像传感器的广角摄像头,实时获取到主人的表情以及动作,从而分析得到主人的情绪表达以及相应的指令信息,然后做出相应的情绪表达,主人可以通过声音、手势、脸部表情来下达指令,不再是单纯用声音和主人对话,从而实现了情感表达更加丰富的宠物机器人和人之间的交流方式;
2、选用显示器作为眼睛,显示器除了能够表达宠物的眼部运动之外,还可以通过图标来表达宠物机器人的感情,进而能更顺畅地实现通过宠物机器人的眼睛和人的眼睛之间来进行情感交流,并且宠物机器人利用四肢和头在内的整个身体动作来进行情感表达;
3、宠物机器人可以用鸣叫声模拟宠物的声音要求从笼子里出来,或者要求出门等,另外,宠物机器人无法维持步行状态的状况时,能够发出声音或者通过眼神、动作寻求主人的帮助,可以更真实的体现宠物机器人与人的情感交流,更能够体现到宠物机器人的治愈作用;
4、该宠物机器人还能够监测到主人的身体健康情况,作为守护型的宠物机器人使用。
附图说明
图1为现有技术中人与机器人进行信息交流的示意图;
图2为本实施例中宠物机器人与主人的情感交流的示意图;
图3为本实施例中宠物机器人的结构示意图;
图4为本实施例中宠物机器人情感交流处理的框图;
图5为本实施例中宠物机器人情感交流处理的流程图;
图6为本实施例中宠物机器人眼睛位置的显示器的图像样本。
图中,1、处理器;101、图像处理单元;102、声音处理单元;103、距离判断单元;104、触摸判断单元;105、wifi、bluetooth通信单元;106、ai知识单元;107、ai学习单元;108、传感器信号记录单元;2、i2c信号分配电路;3、距离传感器;4、广角摄像机;5、显示器;6、麦克风;7、马达;8、2i2c信号分配电路;9、电机驱动电路;10、静电传感器电路;11、触摸传感器;12、扬声器;13、电源;14、数据采集模块;15、无线收发模块。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
宠物机器人的外型能够模拟狗、猫、熊猫等四足动物,便于识别。
本实施例以狗为例来模拟地表现了主人和宠物机器人进行情感交流的情况,如图2-6所示。
宠物机器人的情感交流装置,包括设置于宠物机器人内的电源13模块,以及与电源13模块分别连接的处理器1、数据采集模块14、运动模块、影像输出模块和语音输出模块,数据采集模块14、运动模块、影像输出模块和语音输出模块分别与处理器1电连接。其中,处理器1设置于头部内。
数据采集模块14能够采集宠物机器人与周围物体之间的距离、宠物机器人前方的图像信息、宠物机器人附近人声和环境声音以及宠物机器人表面的触摸信号,并将采集到的距离信息、图像信息、声音信息以及触摸信息发送至处理器1。
宠物机器人包括本体、活动安装于本体上的四肢以及头部,处理器1接收数据采集模块14发送的距离信息、图像信息、声音信息以及触摸信息,然后通过运动模块控制宠物机器人的四肢以及头部动作,并通过影像输出模块展示眼部画面模拟宠物眼部的情绪变化,同时通过语音输出模块发出声音。当识别到主人的语音指令并且确认为俯卧、站立、坐着、走路、转身等指令时,会通过移动四肢和头部在平衡整个身体的同时执行主人发出的指令动作,并且同时显示器5显示相对应的图标。
当宠物机器的运动模块运动受限时,处理器1能够输出相应的求助信号至影像输出模块和/或语音输出模块,通过影像输出模块展示眼部画面模拟宠物眼部的求助状态,和/或通过语音输出模块发出声音。例如宠物机器人无法上楼梯、陷入洼地无法逃脱、阳面朝天无法正常行走的情况下,宠物机器人可以用眼睛、声音、四足的动作向主人求助。
上述数据采集模块14包括距离传感器3、图像传感器、麦克风6以及触摸传感器11;距离传感器3采用红外线距离传感器3,具体设置于宠物机器人的头部,优选设置在嘴巴以及额头位置,并且探头朝前设置,用于测定位于宠物机器人前面的物体的距离,并将检测的距离数值发送至处理器1。
图像传感器采用广角摄像机4,设置于宠物机器人的臂部,通过总线电缆与处理器1连接,广角摄像机4朝前设置,用于实时取得宠物机器人前面的图像信息,并将图像信息发送至处理器1进行分析。
麦克风6设置于耳朵位置,与处理器1通过usb端子连接,用于拾取人的声音以及周围环境的声音,然后将声音信号发送至处理器1。
触摸传感器11设置有多个,分别设置在本体、头部以及四肢,检测到人抚摸宠物机器人后,对应的触摸传感器11将相应的触摸信号发送至处理器1。触摸传感器11包括传感器本体和静电检测电路,静电检测电路与传感器本体配合检测宠物机器人表面的静电电流的变化,判断是否有人抚摸宠物机器人以及抚摸位置,然后输出相应的触摸信号至处理器1。触摸传感器11可以设置在宠物机器人的脚、后背、躯干以及头部的任意位置。
运动模块包括多个马达7,分别设置于头部与本体之间、四肢与本体之间以及四肢的关节处,能够驱动头部相对于本体上下摆动和/或左右摆动,驱动四肢相对于本体运动以及驱动四肢的下肢相对于上肢运动。其中马达7为伺服电机。
影像输出模块包括显示器5,显示器5设置有两个,分别位于头部的左、右眼睛位置,通过显示眼睛的动作和/或不同的图像来表达宠物机器人的情绪。
如图5所示,列举了几种表达宠物机器人的情绪,通过显示器5显示的图像。
f101表示眼睛的显示图像“悲伤”。
f102表示眼睛的显示图像“愤怒”。
f103表示眼睛的显示图像“平常心”。
f104表示眼睛的显示图像“心脏”,是从宠物机器人向人们进行的爱的表达。
f105表示眼睛的显示图像“感到惊讶”。
f106表示眼睛的显示图像“眨眼”,它表示宠物机器人迷失了判断力。
f107表示眼睛的显示图像“睡眠”,表明宠物机器人无法正常运行。
f108表示眼睛的显示图像“笑”表明宠物机器人感到喜悦。
f109表示眼睛的显示图像“困惑”表示一种犹豫的状态,表明无法做出判断。
f110表示眼睛的显示图像“请抚摸我”表示请求触摸、抚摸等撒娇行为。
f111表示眼睛的显示图像“请和我说话”,表示等待主人发出声音指示。
语音输出模块为设置在本体内的扬声器12,扬声器12与处理器1通过电缆连接,处理器1能够控制扬声器12发出声音。
对应的,处理器1包括图像处理单元101、声音处理单元102、距离判断单元103、触摸判断单元104、wifi、bluetooth通信单元105、ai知识单元106和ai学习单元107。
图像处理单元101分析接收到的图像信号,分析是否有人以及人的动作、表情,然后转化为相应的控制指令分别输送至运动模块、影像输出模块和语音输出模块。通过该图像处理单元101从摄像机接收到的信号,能够掌握主人所处的环境信息,同时分析出主人的位置信息和面部信息,由此不仅能够避开障碍物,追随主人身后动作,还能够判断主人的身体状况。
声音处理单元102分析接收到的声音信号,分析人的声音指令,然后转化为相应的控制指令输送至运动模块、影像输出模块和语音输出模块。
距离判断单元103接收距离信号,与图像处理单元101配合,分析出宠物机器人前方的障碍物以及主人的位置,并转化为相应的指令输出至运动模块以避开障碍物并能够追随主人运动。
触摸判断单元104接收触摸信号,并分析判断触摸位置,例如是前脚触摸、后脚触摸或者背部触摸等等,配合图像处理单元101和声音处理单元102,分析出主人表达的情绪,转化为相应的控制指令分别输送至运动模块、影像输出模块和语音输出模块。
wifi、bluetooth通信单元105能够与智能手表或者智能手环无线连接,获取佩戴智能手表或者智能手环的人表征是否健康的实时数据,并通过处理器1判断佩戴者是否健康,例如监测佩戴者的脉搏、血压、氧气浓度以及步数等,当处理器1判断佩戴者的健康状况异常时,处理器1会转化为相应的控制指令分别输送至运动模块、影像输出模块和语音输出模块,进而与佩戴者进行交流,通知佩戴者,并发送短信或者电子邮件通知预定的联系人。
处理器1还包括ai知识单元106、ai学习单元107和传感器信号记录单元108,传感器信号记录单元108按照时间顺序记录来自数据采集模块14的信息以及宠物机器人所采取的动作,与存储了基础判断信息的ai知识单元106共同作为学习素材提供给ai学习单元107,用于供宠物机器人学习,使宠物机器人能够更精确的判断人的指令、障碍物位置以及佩戴者的健康情况。
具体地,传感器信号记录单元108内存储了例如主人的语音命令判断、周围环境的障碍判断、主人的情绪判断以及主人的身体状况判断等信息,配合ai知识单元106供ai学习单元107进行学习,以便于使宠物机器人更加的智能,更真实的反应宠物的状态。
ai学习单元107能够不断学习到主人喜欢的行为,认识到主人给机器人起的名字以及主人的日常生活模式。通过无线收发模块15及时更新处理器1内的程序以及输入资料库进入至处理器1中,而且主人佩戴的手表/手环也是通过该无线收发模块15与处理器1中的wifi、bluetooth通信单元105进行连接。
距离传感器3、图像传感器、麦克风6、触摸传感器11以及马达7均通过i2c信号分配电路2与处理器1连接。
宠物机器人内还设有2i2c信号分配电路8,2i2c信号分配电路8与i2c信号分配电路2配合向控制马达7工作的电机驱动电路9输出i2c控制信号。
宠物机器人和主人之间的情感交流表现在对话、爱抚、脸部表情、动作带来的喜悦和悲伤等,通过由宠物机器人的眼睛来表现的同时,还可以利用身体的动作和鸣叫等来实现,使得宠物机器人能够给人带来平稳的心境,也可以发挥替代人的交友关系的手段。
宠物机器人的情感交流方法,包括以下步骤:
1)通过数据采集模块14检测人的动作、表情以及声音指令信息;
2)通过处理器1分析步骤1)中检测的信息内容,并作出相应的控制指令至运动模块、影像输出模块和语音输出模块;
3)运动模块根据处理器1的控制指令控制头部以及四肢的运动,并通过影像输出模块显示眼睛的动作和/或显示不同的图像来表达宠物机器人的情绪,以及通过语音输出模块模拟输出动物的叫声以表达宠物机器人的情绪状态。
如图5所示,s100代表宠物机器人的情感表现流程,s101对应步骤1)和步骤2)中数据采集模块14的检测信息的输入以及分析,s102-s107对应的是步骤3)中宠物机器人的情感表达处理。
步骤1)中通过数据采集模块14采集宠物机器人前方的图像信息、宠物机器人附近的人声和环境声音以及宠物机器人表面的触摸信号,并将采集到的图像信息、声音信息以及触摸信息发送至处理器1,所述处理器1分析并判断出人的情绪,然后控制宠物机器人作出相应的情绪表达。
步骤1)的数据采集模块14还能够采集到宠物机器人与周围物体之间的距离信息,所述步骤2)中的处理器1根据图像信息以及距离信息分析出宠物机器人前方的障碍物以及主人的位置,并转化为相应的指令输出至运动模块以避开障碍物并能够跟随主人运动。
影像输出模块包括显示器5,所述显示器5设置有两个,分别位于头部的左、右眼睛位置,通过显示眼睛的动作和/或不同的图像来表达所述宠物机器人的情绪。
当步骤3)中所述宠物机器人的运动模块受限时,所述处理器1能够输出相应的求助信号至所述影像输出模块和/或语音输出模块,通过影像输出模块展示眼部画面模拟宠物眼部的求助状态,和/或通过所述语音输出模块发出求助的声音。
处理器1通过wifi、bluetooth通信单元105能够与智能手表或者智能手环无线连接,获取佩戴智能手表或者智能手环的人表征是否健康的实时数据,并通过处理器1判断佩戴者是否健康,当处理器1判断佩戴者的健康状况异常时,所述处理器1会转化为相应的控制指令分别输送至运动模块、影像输出模块和语音输出模块,进而与佩戴者进行交流,并发送短信或者电子邮件通知预定的联系人。
处理器1通过传感器信号记录单元108按照时间顺序记录来自数据采集模块14的信息以及宠物机器人所采取的动作,与存储了基础判断信息的ai知识单元106共同作为学习素材提供给ai学习单元107,用于供宠物机器人学习。
处理器1通过记录在传感器信号记录单元108中的主人反应案例推算并选择主人喜欢的情感表现,然后通过运动模块、影像输出模块以及语音输出模块进行表达。
运动模块能够模拟宠物机器人趴、坐、站、步行、跑、睡觉和起身的动作;所述影像输出模块通过显示不同的图像模拟撒娇、喜悦、生气、悲伤、憎恶、饥饿、饱、热和冷的感受;所述语音输出模块能够模拟吠、鸣和呻吟的声音。
宠物机器人的头部与本体之间、四肢与本体之间以及四肢的关节处,均通过马达7连接,并通过马达7驱动头部相对于本体上下摆动和/或左右摆动,驱动四肢相对于本体运动以及驱动四肢的下肢相对于上肢运动。
该宠物机器人内的检测、分析检测信息以及控制情感表达的过程以规则的时间间隔不断的重复进行,例如每100ms。
尽管以上详细地描述了本发明的优选实施例,但是应该清楚地理解,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
技术特征:
1.宠物机器人的情感交流方法,其特征在于:包括以下步骤:
1)通过数据采集模块检测人的动作、表情以及声音指令信息;
2)通过处理器分析步骤1)中检测的信息内容,并作出相应的控制指令至运动模块、影像输出模块和语音输出模块;
3)运动模块根据处理器的控制指令控制头部以及四肢的运动,并通过影像输出模块显示眼睛的动作和/或显示不同的图像来表达宠物机器人的情绪,以及通过语音输出模块模拟输出动物的叫声以表达宠物机器人的情绪状态。
2.根据权利要求1所述的宠物机器人的情感交流方法,其特征在于:所述步骤1)中通过数据采集模块采集宠物机器人前方的图像信息、宠物机器人附近的人声和环境声音以及宠物机器人表面的触摸信号,并将采集到的图像信息、声音信息以及触摸信息发送至处理器,所述处理器分析并判断出人的情绪,然后控制宠物机器人作出相应的情绪表达。
3.根据权利要求2所述的宠物机器人的情感交流方法,其特征在于:所述步骤1)的数据采集模块还能够采集到宠物机器人与周围物体之间的距离信息,所述步骤2)中的处理器根据图像信息以及距离信息分析出宠物机器人前方的障碍物以及主人的位置,并转化为相应的指令输出至运动模块以避开障碍物并能够跟随主人运动。
4.根据权利要求1所述的宠物机器人的情感交流方法,其特征在于:所述影像输出模块包括显示器,所述显示器设置有两个,分别位于头部的左、右眼睛位置,通过显示眼睛的动作和/或不同的图像来表达所述宠物机器人的情绪。
5.根据权利要求4所述的宠物机器人的情感交流方法,其特征在于:当步骤3)中所述宠物机器人的运动模块受限时,所述处理器能够输出相应的求助信号至所述影像输出模块和/或语音输出模块,通过影像输出模块展示眼部画面模拟宠物眼部的求助状态,和/或通过所述语音输出模块发出求助的声音。
6.根据权利要求1所述的宠物机器人的情感交流方法,其特征在于:所述处理器通过wifi、bluetooth通信单元能够与智能手表或者智能手环无线连接,获取佩戴智能手表或者智能手环的人表征是否健康的实时数据,并通过处理器判断佩戴者是否健康,当处理器判断佩戴者的健康状况异常时,所述处理器会转化为相应的控制指令分别输送至运动模块、影像输出模块和语音输出模块,进而与佩戴者进行交流,并发送短信或者电子邮件通知预定的联系人。
7.根据权利要求1所述的宠物机器人的情感交流方法,其特征在于:所述处理器通过传感器信号记录单元按照时间顺序记录来自数据采集模块的信息以及宠物机器人所采取的动作,与存储了基础判断信息的ai知识单元共同作为学习素材提供给ai学习单元,用于供宠物机器人学习。
8.根据权利要求7所述的宠物机器人的情感交流方法,其特征在于:所述处理器通过记录在传感器信号记录单元中的主人反应案例推算并选择主人喜欢的情感表现,然后通过运动模块、影像输出模块以及语音输出模块进行表达。
9.根据权利要求8所述的宠物机器人的情感交流方法,其特征在于:所述运动模块能够模拟宠物机器人趴、坐、站、步行、跑、睡觉和起身的动作;所述影像输出模块通过显示不同的图像模拟撒娇、喜悦、生气、悲伤、憎恶、饥饿、饱、热和冷的感受;所述语音输出模块能够模拟吠、鸣和呻吟的声音。
10.根据权利要求1所述的宠物机器人的情感交流方法,其特征在于:宠物机器人的头部与本体之间、四肢与本体之间以及四肢的关节处,均通过马达连接,并通过马达驱动头部相对于本体上下摆动和/或左右摆动,驱动四肢相对于本体运动以及驱动四肢的下肢相对于上肢运动。
技术总结
本发明公开了宠物机器人的情感交流方法,通过数据采集模块检测人的动作、表情以及声音指令信息;通过处理器分析检测的信息内容,并作出相应的控制指令至运动模块、影像输出模块和语音输出模块;运动模块根据处理器的控制指令控制头部以及四肢的运动,并通过影像输出模块显示眼睛的动作和/或显示不同的图像来表达宠物机器人的情绪,以及通过语音输出模块模拟输出动物的叫声以表达宠物机器人的情绪状态。通过宠物机器人的头部和四肢的不同动作,以及在宠物机器人的眼睛位置设置显示器,模拟眼睛的动作并显示不同的图标来表现出宠物机器人的不同情绪,不再单纯用声音和人进行对话,从而实现情感表达更加丰富的宠物机器人和人之间的交流方式。
技术研发人员:王永安
受保护的技术使用者:王永安
技术研发日:2020.12.14
技术公布日:2021.03.30
相关知识
宠物机器人的情感交流方法与流程
宠物机器人的情感交流方法.pdf
宠物情感智能机器人:为你的爱宠带来更多的关心与陪伴
智能口袋萌宠机器人小可耐:连接科技与情感的时代新宠
情感交流技巧? 男女情感的交流?
男女情感的交流? 情感交流技巧?
如何用英文与宠物鹦鹉建立情感交流
从人与机器人的互动来看移情效应
全方位解析:小猫智能机器人的功能、应用与用户指南
原创 从人与机器人的互动来看移情效应
网址: 宠物机器人的情感交流方法与流程 https://m.mcbbbk.com/newsview358303.html
上一篇: 宠物小猫应激发烧怎么办?(应激导 |
下一篇: 模拟人生畅玩版NO.13期解锁美 |