人工智能以惊人的速度提升了我们的技术

2020-04-22 15:30:05
导读 在过去的几年中,人工智能以惊人的速度提升了我们的技术。 从完全自动化的劳动密集型工作到诊断肺癌,人工智能已经实现了以前认为不可能的

在过去的几年中,人工智能以惊人的速度提升了我们的技术。 从完全自动化的劳动密集型工作到诊断肺癌,人工智能已经实现了以前认为不可能的壮举。 但是,如果使用不当,算法可能是破坏性武器。 为确保恶意行为者不会对我们的社会造成破坏,我们必须解决几个关键挑战。

AI的真正危险不是像SkyNet这样的有感觉的算法接管世界。 即使这种情况完全是科幻小说,也存在一些合理的问题。 不要惧怕技术,我们应该仔细识别它们并负责解决它们。 在这篇文章中,我将收集五个特别重要的领域,这些领域已经每天影响着我们的生活。

1. Deepfake

在我们的现代社会中,信息是无限的。 通过打开浏览器并浏览网络半小时,您遇到的信息比中世纪一生中遇到的普通人要多。 信息就是力量。 您会立即收到有关地球另一端发生的事件的通知,但有一个陷阱:您如何知道该相信什么以及哪些来源可信?

当然,这完全是假的,但是对于一个随意的观察者来说,可能很难检测到。 这些称为"深度伪造",起源于技术术语"深度学习",是一类算法,能够生成像这样的逼真的伪造图像。 尽管这一特定行为只是该技术的精心展示,但如果新闻源中出现的伪造品比例达到一定阈值,它们就会变得非常危险。 在这种情况下,将不可能检测到哪些信息是真实的,哪些不是。

毫不奇怪,打击深层假货的一种非常有前途的工具是AI本身。 DARPA的MediFor计划或Google的Deepfake检测挑战赛等多项引人注目的计划旨在开发出过滤错误信息的方法。

尽管在我们的生活中不存在深层的假货,但肯定是最具破坏力的假货之一。

2.算法偏差

如果您过去几年曾申请过工作,那么您可能受到了算法偏见的影响,无论是正面的还是负面的。 开发基于AI的算法以筛选求职申请的候选人可能是一个好主意,但是,这存在很多问题。 机器学习需要历史数据来了解哪些候选人值得招聘。 问题在于,过去接受和拒绝的数据受到人类固有的偏见的严重影响,这些偏见主要针对妇女和代表性不足的少数民族。 该算法只是从呈现的内容中学习,并且如果以前的招聘做法具有区别性(通常是这种情况),则该算法的行为将类似。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章