成立AI开发范文伦理委员会迫在眉睫
52fw.cn 04-17 次遇见当一家企业成立伦理委员会时,该决定就是承认了现有的人员和流程没能很好地应对关键挑战。但这里存在一个悖论:如何为你知道自己尚未完全理解的问题设计解决方案。
不久前,谷歌(Google)陷入了这种悖论。在决定有必要探索其人工智能(AI)工作的影响后,该公司任命一家右翼智库的负责人和一家无人机公司的首席执行官为其新成立的AI伦理委员会委员,此举招致了外界的强烈批评。
伦理本质上是审视我们的决定对他人影响的责任。因此,伦理委员会要向强者汇报,但担负着保护弱者的责任。例如,在科学和医学领域,伦理委员会通常被用于监督实验性工作,这些工作存在风险,但人们对这些风险知之甚少。
由于AI仍然是一项可能跨越客观数据处理与伦理决策之间界限的实验,它引发了一些从事该领域工作的人员可能无法做出判断的伦理问题。谷歌为其伦理委员会挑选的委员表明,它要么并未理解这一点,要么就是对该问题的复杂性视而不见。
并非只有谷歌面临这种困境。所有科技公司可能都不得不面对这一问题。当今技术的发展速度及其运行规模,意味着通过试错法来学习,会带来无法量化的社会和政治风险、以及可量化的财务损失风险。正如数学家凯茜奥尼尔(Cathy O’Neil)喜欢说的一句话,算法只是用数字表达的观点。但关于它们究竟是谁的观点、支持哪些规范,仍然存在争议。
组成伦理委员的应该是这样一群人:无利益相关,有能力就社会可接受、而不仅是技术上可行的标准达成共识。他们必须对这些系统有足够的了解,开发伦理指导方针,为“值得信赖”的项目制定了7条原则。但为了让这些原则真正发挥威力,所有AI技术的应用都应该接受伦理委员会的审查。伦理委员会的成员应该是独立的、具有广泛代表性的——足以确保他们受到公众信任。他们还必须能够做出公众可以理解的决定。
伦理委员会的办事程序应向公众公开。应当鼓励异见,即便只是表明所有反对意见都得到了考虑。当人们可以看到决策过程是公平的时候,他们更容易相信他们不认同的决定。
AI发展的速度使这成为了一项紧迫任务——对于害怕受到不公和非法对待的公民来说,是这样;对于担心上了贼船的员工,也是这样;对于那些在乎社会责任的公司,同样是这样。