(来源:生物谷(维权))
转自:生物谷
可谁能想到,如今这一“古老技艺”竟被哈佛大学的研究团队用人工智能(AI)技术“复活”了。研究团队开发出一种名为FAHR-Face的AI模型,仅凭一张面部照片,就能估算出一个人的“生物年龄”,甚至可以预测未来的死亡风险。
AI看脸识“真龄”,比身份证更懂你
如今,越来越多研究发现,人的脸上确实藏着大量健康线索。那些我们平时可能忽略的小细节——比如眉间的纹路、眼角的弧度、皮肤的紧实度,甚至下颌线的轮廓——其实都可能悄悄透露着身体的真实状态。可以说,一张脸,像极了我们身体的“健康简历”,而且是实时更新版的。
但想要把这些细节从脸上“读”出来可不是件容易的事。人眼终究有限,就算是经验丰富的医生,也很难靠肉眼识别出隐藏在脸部的复杂健康信号。这时候,AI的优势就显现出来了。
研究人员用一种近似“拼图游戏”的方式训练FAHR-Face。他们收集了超过4000万张无标签的人脸照片,这些照片没有附带年龄或健康信息,人物来自不同年龄、种族、性别,光照条件和角度也五花八门。AI模型的任务很特别:它不直接分析人脸,而是先学会“修补”——也就是随机遮挡面部图像的一部分,让AI去猜那部分长什么样。通过无数次这样的拼图挑战,AI逐步掌握了人脸各个部位之间的结构关系和细节逻辑,最终“练就”了一副能看懂脸、读懂健康的“火眼金睛”。
“显老”并非心理作用,
两种模型显著预测死亡风险
在评估FAHR-FaceAge模型的临床应用价值时,研究人员提出了一个核心概念:FAD(FAHR-FaceAge Deviation),即AI所预测的生物年龄与个体实际年龄之间的差值。这个看似简单的指标,却在一项涉及38,211名癌症患者的大型临床队列中,揭示出了深远的健康意义。
更为关键的是,FAD与患者的生存结局之间呈现出高度相关性。
换句话说,AI眼中的“显老”,并不仅仅是审美问题,更可能反映出身体的实际衰弱状态,是早期风险的“外在信号”。
这些结果充分表明,AI“看脸”所得到的年龄偏差,不只是简单的数值,而是与个体生理状态和疾病预后高度耦合的重要医学信号。
验证结果显示,模型得分与患者的实际死亡风险呈显著负相关。
同根不同叶:
两大AI模型眼中的“脸部密码”差异
有趣的是,虽然FAHR-FaceAge和FAHR-FaceSurvival这两个模型都建立在同一基础模型之上,但它们在分析面部图像时,却各自聚焦于不同的面部区域,从而捕捉到截然不同的信息。FAHR-FaceAge主要锁定鼻唇沟、额头和颞区这些与年龄相关的面部特征,反映出衰老的迹象;而FAHR-FaceSurvival则更多地关注眼睛下方和鼻梁区域,这些部位则蕴含着与患者健康状态密切相关的疾病信号。这样的差异不仅体现了两个模型在预测目标上的不同侧重点,也揭示了面部不同区域对年龄和健康状况的独特反映。
研究人员进一步指出,从临床应用的角度来看,FAHR-FaceAge通过一个简单易懂的“面部年龄差”(FAD,单位为年)来直观呈现个体的生理老化状态,不仅可以用来动态追踪健康变化,还能作为风险分层的依据;而FAHR-FaceSurvival则专注于短期死亡风险的预测,能够根据不同的临床需求灵活应用。
在当下快速迈入老龄化社会的背景下,老年人的健康管理变得越来越复杂。传统的虚弱性评估方法,如量表打分、握力测试等,虽然理论上简单,却常常在实际操作中面临诸多挑战。此时,FAHR-Face系列模型犹如一位“隐形医生”,仅凭一张普通的面部照片,便能无创、便捷地帮助医生评估虚弱风险。而且,它还能辅助识别那些可能难以承受积极治疗的患者,避免过度医治,从而实现医疗资源的合理分配,让患者拥有更高质量的生活。
总的来说,该研究展示了FAHR-Face模型在预测生物年龄和生存风险方面的卓越性能,表明通过面部图像分析可以非侵入式地评估健康状况和预测疾病相关死亡风险。
看来,下次对镜自拍时,或许该多看一眼那道若隐若现的法令纹——它可能比体检报告更早泄露我们的健康密码。当自拍关掉美颜滤镜后,真相或许就藏在眼角那束倔强的细纹里。
仍需指出的是,现有队列主要来自西方国家的癌症患者,限制了模型对其他疾病类型、不同地理区域及种族群体的适用性。另外,面部生物标志物在走向临床常规应用前,还需克服监管审批、临床流程整合及支付保障等多方面挑战。