施耐德电机说明企业该如何慎用AI

现正处於AI发展史上的关键时期,人类以前所未有的规模和速度在各个领域应用AI技术。随着AI使用日渐普及,社会上兴起关於伦理、责任、信任的讨论,企业也需要在使用AI提升效率的同时做好风险管理。尤其现阶段AI仍有诸多不完善之处,例如图像辨识无法精确判别差异、以及招聘建议可能含有偏见等种种例子显示人们并不能完全信任AI。

施耐德电机(Schneider Electric)建议企业在开发与使用AI时,应坚持遵守以下三项准则。

一、符合法律与规范。如施耐德电机拥有完善的网路安全政策,符合ISO/IEC 29147和ISO/IEC 30111的标准,同时积极参与AI法律的制订,并承诺完全遵守相关法规;二、道德与信任守则。施耐德电机以最高标准的道德与信任,对减少碳排与降低能耗做出承诺,而将AI导入解决方案时,也以同样高标准的道德与信任作为原则;三、内部政策与流程。施耐德电机拥有数位风险与数据管理主管负责AI专案,并成立RAI工作小组(Responsible AI Workgroup)跟进欧洲与美国最新的AI法案,持续关注伦理议题。

此外,上下文情境、数据来源、解释方式都可能导致AI产生的结果有偏误或偏见,这让AI信任议题变得极为复杂。以机器学习(Machine Learning, ML)来说,就算风险与其他数位技术类似,但由於系统更加复杂,风险的规模便更大、更难避免、更难追踪、更难解释。若想克服这些挑战,建立可信任的AI,有以下两点关键。

一、专业知识和AI专家:AI应用将对人类产生深远的影响,因此AI专家和数据科学家往往要担任道德的守门员,他们检测偏见、建立回馈循环(Feedback Loops)、检验运行异常以避免资料下毒攻击(Data Poisoning)。在发展与应用AI时,企业必须选择有价值的案例、挑选和清理数据、测试模型并控制其行为,这些都需要大量的专业知识与技术。若是出现异常,模型需要重新学习,以改善系统并避免使用特例数据而引发偏见。

二、风险预测:目前多数的AI监管都以风险预测为基础,从设计阶段开始,就必须考量错误或异常数据、网路攻击可能导致的问题,并预测潜在後果。藉此,AI专家能及早采取相关动作来降低风险,例如改善训练AI模型的资料库、检测数据漂移(运行时的异常数据变化),尽可能做好防护措施。另外,若AI的信心水准低於一定值,团队也务必确保人类参与关键决策。

人们不能盲目相信AI,企业也要选择具有专业知识且可信任的AI供应商合作,确保服务符合最高标准的伦理道德、数据隐私、网路安全。施耐德电机提供关键设施的解决方案,包含国家电网、核电厂、医院、污水处理等,因此深知道德与信任的重要性,作为一家可信任的企业、持续开发可信任的AI解决方案,并以同样负责任的方式导入AI,确保服务与产品兼具安全、高效、可靠、公正、隐私。

0
希望看到您的想法,请您发表评论x