相关的日益增长的风险。斯坦福大学 研究员 认为,它是有效 计划的核心概念组成部分。 项目的主要原则和重点之一是降低集成第三方人工智能工具的风险, 她说。尼赞 梅克尔 博布罗夫 首席 官,这也是现实的需要。 第三方人工智能工具,包括开源模型、供应商平台和商业 ,已经以某种形式成为几乎每个组织人工智能战略的重要组成部分,以至于很难理清内部组件来自外部, 他解释道。 因此,人工智能项目需要包括使用第三方工具的政策、评估标准和必要的防护措施。 而且这种实际需要和数。
据策略师 表示人工智能即服务
是一种趋势,因此越来越多的组织将在云中使用其他人构建的人工智能工具。 他援引欧盟的人工智能法案和其他法规,认为 因此,除了内部人工智能开发之外,负责任的人工智能 巴西电话号码表 项目最重要的是考虑完整的人工智能价值链。 尽管广泛的规范一致认为 计划应该解决这些类型的风险,但对于如何做到这一点缺乏共识。非洲人工智能观察站的政策专家 表示: 为了有效解决与第三方人。
工智能工具相关的风险计划应包
括一套全面的政策和程序,例如道德人工智能开发指南、风险评估框架、监控和审计协议。 梅奥诊所数字平台副主席拉迪卡 阿拉 断言, 用于开发内部人工智能模型的 严格 tg编号 性应该适用于评估第三方人工智能平台和服务。 但是贝罗娜 索纳( )博士。澳大利亚国立大学人性化机器智能项目的候选人对此表示反对,他认为 仅靠 项目无法有效解决与使用或集成第三。