Loading...
恩智浦CTO:AI有缺陷!我们正在研究更有“理解力”的AI
奔跑的蜗牛 发布于 07/03 14:29 浏览 111

人工智能(AI)的例子无处不在。我们对于AI的使用可能超出想象,并且在许多方面视为理所当然。智能手机助手就是一个很好的例子,尽管我们可能并不认为这与AI有关。许多情况下,我们已经习惯于与Siri或Google Assistant的互动。同样,面部识别已成为新智能手机的标准解锁功能。

机器学习属于AI的一个子集,原理是通过训练基于计算机的神经网络模型来识别给定的模型或声音。在神经网络完成训练后,就可以推理出结果。例如,如果我们用数百张狗和猫的图像训练神经网络,那么它应该能够正确地识别图片中是狗还是猫。网络模型会确定答案并指示预测的类别概率。

AI的缺陷

随着基于机器学习的应用越来越深入日常生活,系统开发人员已经逐渐意识到神经网络的当前运行方式不一定正确。让我们回到上面的例子,如果我们向神经网络显示一匹马的图片,那么仅经过猫狗推理训练的神经网络不得不在已训练的类别中选择一个。更令人担忧的是,给出错误预测的概率很高,您甚至都不会注意到。这个模型就这样无声无息地失败了。

然而,人类应对类似情况的方法大不相同,我们会使用更合理的决策方法。我们希望神经网络诚实地回答:我不知道答案,或者从未见过马的图像。上面的示例虽然非常简单,但却足以说明神经网络有缺陷,难以在充满突发情况和不确定性的人类世界中运作。现实情况是,许多工业和汽车系统仍在继续开发神经网络,即使在某些情况下会存在这些问题。

可解释的AI

恩智浦多年来投资构建AI功能,并一直在关注此类缺陷。智能手机助手错误地推断语音,其危险性与工业或医疗保健环境中的错误也大相径庭。因此,我们正在为客户提供先进的机器学习解决方案,并持续研究一种方法,名为“可解释的AI(xAI)”。xAI通过添加更合理、类似于人的决策方法和额外的确定性维度,扩展了机器学习的推理和计算概率能力。xAI将AI的所有优势与推理机制相结合,使其更接近人类的反应方式。

假设您是自动驾驶汽车的乘客,如果车辆缓慢地行驶,您自然会想知道为什么车辆要如此小心。如果驾驶员是人类,您可能会问:为什么这么慢。驾驶员会解释说,下大雨时能见度很差,他们不确定前面会有什么危险。解释基于不确定性。xAI的决策便遵循类似的行为模式来表达模型不确定的推理。

恩智浦已经在研究如何将xAI功能整合到我们为汽车、工业和医疗保健系统开发的机器学习解决方案中。

参与抗疫实战

鉴于史无前例的全球新冠肺炎(COVID-19)大流行,xAI研究团队认为,恩智浦xAI可能有助于实现对患者疾病的快速检测。虽然现在研究尚处于初期,但是已有的证据点让我们深受鼓舞,另外我们与一些领先的医院建立了互动,积极了解xAI技术对全球面临的医疗保健挑战有何帮助。

除了规定的PCR测试和诊断方案,CT放射学和X射线影像的使用提供了快速的替代检测功能。通过适当培训的xAI模型来处理CT和X射线影像,就能区分未感染病例和感染病例。xAI能够提供实时推理可信度和可解释的洞察,以帮助临床人员确定下一步治疗方案。

xAI研究团队相信他们的推理模型已经趋于成熟,目前正在与欧洲和美洲的医学和AI专家进行讨论。但是,为了进一步推动研究,我们必须访问更大的匿名数据集,积极寻求新冠肺炎研究人员和潜在合作伙伴的反馈,共同合作以改进这种检测技术。如果想与我们合作使用xAI进行新冠肺炎检测,请联系我们的研究团队。

xAI使我们能够在涉及不确定性的情况下,作出更接近人类的反应。它为基于概率的决策分类增加了确定性和可行度。恩智浦在面向汽车、工业和医疗保健应用的关键安全系统中发现了xAI的机遇。

作者简介

Lars Reger是恩智浦资深副总裁兼首席技术官。作为公司首席技术官,Lars负责管理汽车、工业4.0、物联网、移动以及连接性和基础设施等重点市场中新业务的活动和研发。恩智浦拥有广泛的物联网处理器产品组合,并且是全球汽车工业领先的芯片供应商。恩智浦及其全球专家团队通过出色的边缘计算专业知识,推动无人驾驶、安全互联汽车的发展,并加快物联网智能和安全互联设备的上市。

声明:本内容来自公众号【NXP客栈】,版权归原作者所有,如涉及侵权请联系我们。

*本文仅代表作者观点,不代表易百纳技术社区立场。系作者授权易百纳技术社区发表,未经许可不得转载。

点赞0
收藏2
分享
我就是我,不一样的烟火~

精彩评论

内容存在敏感词
易百纳技术社区
确定要删除此文章、专栏、评论吗?
确定
取消
易百纳技术社区