在有关预印本服务器Arxiv.org的新发表的论文中,蒙特利尔AI道德研究所,麦吉尔大学,卡内基梅隆大学和Microsoft的研究人员提出了一个名为SECure的四支柱框架,旨在量化AI对环境和社会的影响。通过合计计算的机器学习,联合学习和数据主权等技术,合著者断言科学家和实践者有权削减对碳足迹的贡献,同时恢复对历史上不透明系统的信任。

可持续性,隐私和透明性仍然是AI中尚未解决和尚未解决的挑战。2019年6月,马萨诸塞州大学阿默斯特分校的研究人员发布了一项研究,估计训练和搜索给定模型所需的电量涉及约626,000磅的二氧化碳排放量,相当于二氧化碳的使用寿命排放量的近5倍。平均美国汽车。像DeepMind和英国国家卫生局(National Health Service)追求的伙伴关系掩盖了正在开发和试行的AI系统的真正本质。而敏感的AI训练数据往往泄露到公共网络,通常没有利益相关者的知识。

SECure的第一大支柱,即高效计算的机器学习,旨在降低计算负担,这些负担通常使与那些拥有大量计算和数据处理基础架构的组织不相关的研究人员无法获得访问。它建议创建一个标准化的度量标准,该度量标准可用于在硬件和软件配置之间进行量化比较,从而使人们能够在选择一个系统而不是另一个系统时做出明智的决定。

SECure的第二个支柱建议使用联合学习方法作为执行设备上训练和机器学习模型推论的机制。(在这种情况下,联合学习是指在不交换数据样本的分散设备或服务器上训练AI算法,而无需交换这些样本,从而使多方可以构建模型而无需大量共享数据。)正如合著者所指出的,联合学习可以减少碳排放量如果在使用清洁能源生产电力的地方进行计算。作为第二项好处,它可以减轻数据集中化带来的风险和伤害,包括数据泄露和隐私入侵。

SECure的第三大支柱-数据主权-是指拥有强大的数据所有权并为个人提供控制其数据使用方式,用途和时间的想法。它还允许用户在认为合适的情况下撤回同意,同时尊重关于所有权的不同规范,这些规范通常在与人工智能相关的关于多样性和包容性的讨论中被忽略。合著者指出,某些土著人对数据的看法要求将数据保留在土著土地上或加以使用,或以符合某些价值的方式进行处理。

研究人员写道:“在机器学习领域,尤其是从众多用户那里收集大数据集的情况下,撤消同意书是一个重大挑战。”“特别是,目前没有明确的机制可以消除数据痕迹或与用户有关的数据的影响……而无需重新培训系统。”

SECure的最后一个支柱-LEED认证-借鉴了能源和环境设计的领导力来寻求灵感。研究人员提出了一种认证过程,该过程将提供度量标准,使用户能够与其他系统相比评估AI系统的状态,包括度量数据任务和自定义工作流的成本(就存储和计算能力而言)。它可以是半自动化的,以减少管理成本,其工具使组织能够开发合规性并以开源形式提供。而且,通过一项旨在确定用户从认证中寻求的信息以及如何最好地传达信息的调查,对广大人群来说,它将是可理解的。

研究人员认为,如果大规模部署SECure,将为消费者,学者和投资者提供动力,要求对AI的社会和环境影响具有更高的透明度。然后,人们可以利用购买力来引导技术进步,理想情况下可以考虑这两种影响。共同作者写道:“类似于一种影响力投资,负责任的AI投资将变得更加容易,该机制允许对各种解决方案进行标准化比较,而SECure正是针对这种解决方案的。”“从广泛的角度来看,该项目很适合未来在公共政策方面的建议。”

当然,诀窍是采用。SECure与负责任的AI许可(RAIL)竞争,后者是一组最终用户和源代码许可协议,其条款限制了潜在有害的AI技术的使用,复制和分发。IBM单独提出了自愿性的事实表,开发和提供AI的公司将完成并发布这些表,目的是提高服务的透明度。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。