长期以来,它一直是数据行业的核心焦点。
数据治理是确保数据安全、私有、准确、可用和可靠的一切措施,包括制定内部标准和数据政策,规范数据的收集、存储、处理和处置。这一过程对于保护用户隐私和维护数据的完整性至关重要。
正如这一定义所强调的那样,数据治理是关于管理数据——准确地说,是驱动AI模型的引擎。
虽然数据治理和AI之间的联系初步显现,但是将其与AI疲劳联系起来是因为强调导致疲惫的原因,这确保了整篇文章中对该术语的一致使用。
由于公司、开发人员或团队遇到的挫折和挑战,AI疲劳可能会出现,导致AI系统的实施或价值实现受阻。
AI过度炒作的主要原因在于对其能力的不切实际期望。利益攸关方需要与AI的能力、可能性、局限性和风险保持一致,才能合理地评估其价值和应用。
谈到风险,道德通常被认为是事后的想法,导致放弃不符合规定的AI倡议。
你一定想知道数据治理在导致AI疲劳方面的作用——这是本文的前提。
这就是我们接下来要去的地方。
AI疲劳大致可分为部署前和部署后。让我们首先关注部署前的工作。
将概念验证(PoC)升级到部署的因素有很多,例如:
一旦我们评估了使用ML算法可以最好地解决问题,数据科学团队就会执行探索性的数据分析。在这个阶段揭示了许多底层数据模式,突出了给定数据是否包含丰富的信号,它还有助于创建工程特征,以加快算法的学习过程。
接下来,团队构建第一个基线模型,通常会发现它的性能没有达到可接受的水平。一款输出像掷硬币一样好的车型不会增加任何价值,这是构建ML模型时的首批挫折之一,也就是经验教训。
公司可能会从一个业务问题转移到另一个业务问题,从而导致疲劳。尽管如此,如果底层数据没有携带丰富的信号,任何AI算法都无法建立在它的基础上,该模型必须从训练数据中学习统计关联,以对看不见的数据进行概括。
尽管经过训练的模型在验证集上显示了有希望的结果,但根据合格的业务标准,例如70%的精度,如果模型在生产环境中不能充分发挥作用,仍然可能会出现疲劳。
这种类型的AI疲劳被称为部署后阶段。
无数原因可能会导致性能下降,而糟糕的数据质量是困扰该模型的最常见问题,它限制了模型在缺少关键属性的情况下准确预测目标反应的能力。
考虑在训练数据中只有10%缺失的基本特征之一,现在生产数据中50%的时间变为空,从而导致错误预测,这样的迭代和确保模型一致执行的努力会让数据科学家和业务团队感到疲惫,从而削弱人们对数据管道的信心,并使项目投资面临风险。
稳健的数据治理措施对于解决这两种类型的AI疲劳至关重要。鉴于数据是ML模型的核心,信号丰富、无错误和高质量的数据是ML项目成功的必要条件。解决AI疲劳问题需要高度关注数据治理。因此,我们必须严格工作,确保正确的数据质量,为构建最先进的模型和提供值得信赖的业务见解奠定基础。
数据质量是蓬勃发展的数据治理的关键,也是机器学习算法成功的关键因素。公司必须在数据质量方面进行投资,例如向数据消费者发布报告。在数据科学项目中,想想当质量不佳的数据进入模型时会发生什么,这可能会导致性能不佳。
只有在错误分析期间,团队才能识别数据质量问题,当这些问题被发送到上游修复时,最终会导致团队之间的疲劳。
显然,这不仅仅是花费的努力,而且在正确的数据开始输入之前,还会损失大量的时间。
因此,始终建议从源头修复数据问题,以防止此类耗时的迭代。最终,发布的数据质量报告暗示数据科学团队(或任何其他下游用户和数据消费者)了解传入数据的可接受质量。
如果没有数据质量和治理措施,数据科学家将因数据问题而不堪重负,从而导致导致AI疲劳的不成功模型。
这篇文章强调了AI疲劳开始的两个阶段,并介绍了数据质量报告等数据治理措施如何能够推动构建值得信赖和健壮的模型。
通过数据治理建立坚实的基础,公司可以构建成功和无缝的AI开发和采用的路线图,灌输热情。
为了确保这篇文章全面概述了应对AI疲劳的各种方法,我还强调了组织文化的作用,组织文化与数据治理等其他最佳实践相结合,将使数据科学团队能够更快、更快地建立有意义的AI贡献。
以上是AI疲劳问题能通过数据治理解决吗?的详细内容。更多信息请关注PHP中文网其他相关文章!