负责任的人工智能取决于模型的可见性

2019-12-31 17:02:16
导读人工智能的兴起带来了对偏见、欺骗和恶意应用的警告。但有一种方法可以避免偏见,并确保负责任的人工智能,根据FrancescaLazzeri(图),高级机器学习科学家和云倡导者在微软公司:

人工智能的兴起带来了对偏见、欺骗和恶意应用的警告。

但有一种方法可以避免偏见,并确保负责任的人工智能,根据FrancescaLazzeri(图),高级机器学习科学家和云倡导者在微软公司:能见度。

“在我的团队中,我们有一个工具包,它被称为‘可解释性工具包’,它实际上是一种打开机器学习模型和理解不同变量、不同数据点之间的不同关系的方法,”Lazzeri说。“这是一个简单的方法,你可以理解为什么你的模型给你特定的结果。

除了在微软工作,Lazzeri也是博士的导师。麻省理工学院博士后和博士后学生。

她在佛罗里达州奥兰多的微软Ignite活动期间与StuMinimanand RebeccaKnight进行了交谈,她是硅谷媒体的移动直播工作室CUBE的共同主持人。他们讨论了负责任的人工智能和微软最近在机器学习中发布的路径(见这里的完整采访记录)。

根据Lazzeri的说法,在人工智能应用程序中发现的大多数偏见问题都是从数据开始的。她说:“你必须确保这些数据在你的人工智能应用程序所针对的人群中具有足够的代表性。“大多数时候,客户只是使用自己的数据。一些非常有帮助的东西也在关注外部类型的数据。

另一种避免问题的方法是与业务和数据专家检查模型。拉兹泽里指出:“有时我们有数据科学家在筒仓里工作;他们并不真正沟通他们在做什么。“你必须始终确保数据科学家、机器学习科学家与数据专家、商业专家和每个人的谈话密切合作......以确保我们理解我们在做什么。

对于刚刚开始机器学习之旅的企业,第一步是确定必须回答的商业问题,拉兹泽里解释说:“一旦他们想到这个问题,第二步就是了解他们是否拥有支持这一过程所需的正确数据。

在此之后,重要的是能够将业务问题转化为机器学习问题。Lazzerisaid说:“最后,你必须确保你能够部署这种机器学习模式,这样你的环境就可以进行部署和操作了。“在这一时刻,您将为您的机器学习解决方案增加业务价值。”.


免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章