澳大利亚信息专员办公室 (OAIC) 最近发布的指南凸显了全球范围内人工智能治理趋于严格的趋势,并强调了数据隐私的重要作用。通过扩大《隐私法》的适用范围,使其涵盖所有处理个人数据的人工智能系统,OAIC 引入了所有机构(无论规模大小)都必须考虑的关键防护措施。该指南标志着人工智能领域公司的关键时刻,强调了在保护用户权利的同时,负责任地开发技术的迫切需要。
澳大利亚信息官办公室 (OAIC) 决定将《隐私法》的要求扩展至人工智能工具——即使通常不受这些法规约束的公司也应如此——这传递了一个强有力的信息:在人工智能时代,无论组织规模或运营范围如何,用户隐私 99 acres 数据库 都不能受到损害。传统上,《隐私法》赋予小型组织(收入低于 300 万澳元的组织)更大的自由度。然而,现在,人工智能系统的使用带来了额外的责任,尤其是在个人数据的收集、处理和共享方面。本指南强调,合规性是任何开发或部署人工智能技术的组织的基础。
负责任的人工智能使用需要透明度
OAIC 的主要指令之一是,各机构必须提供清晰透明的隐私政策,解释人工智能系统如何与个人数据交互。用户需要了解他们的数据可能被人工智能如何使用,尤其是在涉及潜在风险时,例如生成合成图像或创建关于个人的潜在误导性信息。在人工智能领域,这种透明度至关重要,因为复杂的算法可能会做出决策或生成用户(甚至开发者)可能无法完全预料的内容。
人工智能系统中个人数据的风险
OAIC 指南中最引人注目的或许是建议各机构完全避免将个人数据输入人工智能系统。人工智能的变革潜力伴随着巨大的隐私挑战,尤其是考虑到这些系统经常从个人数据中“学习”。对于大多数消费级人工智能应用而言,数据最小化是一种明智的预防措施,因为很少有应用能够提供确保持续隐私合规所需的全面监督。OAIC 建议尽可能避免使用个人数据,以此倡导谨慎的做法,即使可能限制部分人工智能功能,也要尊重用户隐私。