近日,星网锐捷旗下星网视易脑机疗愈研究发展中心正式披露了一项突破性技术成果:基于多模态心脑生理数据的非侵入式脑机接口情绪评估模型,它首次实现对喜、怒、悲、恐、平静、压力等多维度情绪的精准、实时评测,标志着人的情绪从主观判断迈入客观定型可量化的阶段。
传统情绪识别技术常常陷入“表象误判”与“个体局限”的双重困境,依赖于面部表情、语音语调等外部行为特征,其准确性易受主观掩饰和环境干扰,而单一生理信号模型又难以适配个体差异。能否像监测心率、血压一样,对内在情绪进行客观、量化的监测,一直是人工智能与神经科学领域的愿景。
通过融合人工智能、心理学与神经科学,星网视易脑机研究中心开创性地构建了基于多模态生理信号(脑电EGG+光电容积脉搏波PPG)的非侵入式脑机情绪评估模型,实现了“外部感知”到“内部实测”的技术升级。
据悉,星网视易脑机研究中心与合作团队一起系统梳理了近十年全球顶尖学术文献,确立了脑电与心率变异性作为核心生理指标,并严格设计了标准化数据采集流程,科学筛选并验证了能高效诱发特定情绪的视频片段作为情绪诱发因子,确保每次数据采集都能“靶向”目标情绪。
同时,在受试人员层面,中心向学校和社会公开招募批量18至82岁的志愿者进行了大规模的多状态生理数据采集,覆盖多种情绪状态,从而确保了模型的普适性和数量级验证。
“如何更精准地解读情绪,在客观探测硬件工具和高质量数据基础上,提升算法的精准性,是整个系统的‘智慧核心’。”星网视易脑机研究中心生态产品总监郑建明介绍。源于深度融合的技术架构,星网视易脑机疗愈中心从研发初始就摒弃简单的接口调用模式,对AI模型进行底层重构,基于一套严谨的“理论—数据—模型”的科学工程体系,从0到1构建创新核心。同时,情绪评估模型创新性地采用了跨注意力机制的Transformer深度学习架构,能够同时处理用户的年龄性别等静态信息、主观情绪报告、以及连续的双前额脑电与心率动态信号。
通过对海量心脑数据的深度挖掘与学习,这个AI模型最终练就了“读心术”,能够以极高的时间分辨率实时输出多种包括愉悦、愤怒、悲伤、恐惧、压力、平静等核心情绪及状态的预测值。
用户体验脑机设备
“技术最终是为了更好地服务人。”郑建明说,“我们创造了一套直观的‘情绪画像’系统,就像一本为用户量身定制的‘情绪日记’。它不仅能清晰呈现用户在佩戴非侵入式脑机设备期间的全部情绪起伏,更能为用户解读每一种情绪状态背后的关键身体信号,帮助用户更了解自己。”
情绪检测报告
星网视易脑机研究中心坚信,科技不应只是提升效率的工具,更是关照人心的艺术。“希望脑机接口技术能走出实验室,走进普通人的生活,成为可触及、可感知、可信任的日常疗愈伙伴。”郑建明说。