根据皮尤研究中心的数据,68% 的技术创新者、开发人员和商业领袖预计,到 2030 年,大多数人工智能系统将继续忽视关注公共利益的道德原则。
(资料图片)
随着人工智能努力与人类能力相匹配,一个主要问题是它可能会超过我们在道德框架内控制它的能力。因此,为人工智能系统制定道德准则的运动越来越多。但要强制执行 AI 道德规范,行业必须首先定义这些道德规范。
多年来,不同的个人和组织一直在尝试创建符合道德的 AI 代码。例如,在 2016 年通过了GDPR,为如何执行与影响人类行为的无形工具相关的道德规范奠定了基础。这要求企业考虑使用和存储个人信息的道德规范,这是处理人工智能时至关重要的第一步。
尽管如此,今天仍然没有被广泛接受的人工智能伦理框架,或实施它的手段。显然,道德 AI 是一个广泛的话题,所以在本文中,我想缩小范围,从网络监控技术的角度来看待它。
人工智能和网络监控
当应用于网络监控和性能时,人工智能有许多潜在的好处。虽然许多员工担心被 AI 取代,但在网络空间中,AI 的增长实际上意味着改进,而不是取代。
事实上,IT 监控环境中的 AI 可以简化复杂的网络、自动化特定任务,并帮助提高威胁检测和修复的效率——仅举几例。它还可以简化 IT 在监督中的角色,并帮助更快地找到问题的根本原因。
让我们看一些人工智能在网络监控中的具体例子,这样我们以后可以更好地理解关键的伦理问题。
异常检测使用 AI/ML 来了解网络上的正常与异常行为(以建立基线)。它用于构建适合特定位置、用户和时间方面的典型流量的模型。这些模型可以非常详细,具体到具体应用。它们允许组织通过从网络角度提取应用程序的特征来理解模式。
预测分析利用 AI/ML 的数据来预测未来可能在网络中发生的潜在问题。与异常检测非常相似,它还使用数据分析来了解历史模式和事件,并查找和了解可能导致问题的模式。
自动化还使用 AI/ML 来确定网络问题的根本原因并自动修复它。ML 技术(例如决策树或更复杂的技术)可以创建学习过程来诊断问题,而不是创建容易出错且难以维护的基于规则的手动系统。
网络和人工智能伦理问题
虽然人工智能在应用于网络监控时可以提供更高水平的可见性和解决问题的能力,但也存在行业应该关注或提出的道德考虑或问题。围绕道德 AI 存在很多争论,但大多数人都同意 AI 道德是一个道德原则和技术系统,旨在为 AI 技术的开发和负责任使用提供信息。
但这在网络监控领域意味着什么?我不会假装知道所有的答案,但我确实有一些我们都应该提出并共同努力解决的关键问题。
使用的数据是否遵循适用的隐私和保护法规——无论是的 GDPR 还是其他法规?网络数据可以包含个人、行为和趋势信息。确保它遵守法规很重要,尤其是在 AI/ML 系统更大量地摄取数据的情况下。
当特征被提取并用于训练模型时,数据是否有任何潜在的偏差?随着模型的开发,人类会根据可能与性别、种族、民族等相关的模式进行偏差检测。这在社交数据中更为明显,但产生网络流量的用户可能具有特定于群组的模式。尽管这可能不会产生社会偏见,但它可能会创建可能无法按预期普遍适用的模型。
是否根据分析和潜在影响推荐或执行了这些措施?正如在自动驾驶汽车中观察到的那样,总是存在人工智能系统可能没有接受过训练的“拐角”案例或看不见的场景。探索每一个可能的结果,即使没有数据支持,也应该被考虑和解释。
值得注意的是,该行业并没有完全从一开始就开始,但人工智能标准还处于早期阶段。如今,IT 领域的一些举措旨在帮助创建和塑造符合道德规范的 AI。其中包括广义的 GDPR,它不直接涉及人工智能伦理,但它确实涉及数据保护和隐私,这对人工智能使用此类数据有影响。
还有一项拟议的人工智能法案将专门针对人工智能驱动产品的开发和使用制定规则。但在这一点上,大多数人工智能伦理都留给了技术开发人员——这在未来需要改变。
随着人工智能创新的继续,设置护栏和标准将是关键。未经检查的人工智能被普遍认为是灾难的根源。
但是,按照道德准则生成和实施的 AI 在整个网络监控领域具有惊人的潜力,可以在收集、分析、设计和保护网络时为NetOps团队节省大量时间和资源。
Copyright © 2015-2022 亚太公司网版权所有 备案号:沪ICP备2020036824号-11 联系邮箱: 562 66 29@qq.com