似乎我们终于开始了解人工智能(AI)对我们的日常生活有多大影响。从概念上来说,人工智能从1950年代就已经存在,但是直到最近几年,我们才看到该技术开始留下持久的印记-从健壮,直观的企业技术一直到现在为家庭供电的智能设备。

我们中的许多人可能没有意识到,但是无论我们使用的是语音助手(例如Alexa),在线购物还是在Facebook上滚动浏览,都在发挥大量数据密集型AI和机器学习(ML)的作用。

人工智能技术如此无缝地融入日常生活的事实无疑是引人注目的,但这一信息也带有道德上的难题。在GDPR时代,我们现在必须接受Cookie,以便同意在工作以外收集我们的个人数据。我们现在开始看到企业在工作环境中实现AI和机器学习工具,其中很多员工可能都不知道。

减轻平凡的技术

“智能办公室”的想法吸引了许多人。如今,我们受到许多平凡的任务的束缚,这些任务很快就会被技术(尤其是AI和ML)接管。从工作分配和绩效审查,到级联信息并执行最终的指令,在这种情况下,机器将不会替代工人。但是,该技术将有助于使更为琐碎的日常任务变得更加高效(或完全消除它们)。人工智能具有释放许多办公室工作人员的工作量的巨大潜力,在此过程中有利于员工的福祉和工作/生活的平衡,并使员工专注于工作中更愉快的方面。但是,与任何新兴技术一样,未知数也到了。

机器产生信息,而更多的数据带来更准确的响应。我们正处于对企业社会责任(CSR)日益重视的时代-在此,员工福利和更加平衡的工作方式已开始成为许多企业的优先事项。但是,要实现这一目标需要从工人那里收集多少数据的问题肯定会引起人们对AI开发伦理的质疑。

通过数据改善员工的幸福感

例如,一些组织现在要求员工佩戴智能设备来跟踪生物节律细节,从而预测员工的压力模式。乍一看,这一切都很好。诸如此类的技术旨在管理员工的工作量并确保他们的工作/生活平衡保持健康。一名员工的压力水平是否正在上升?通知经理,减少工作量,通过困扰他们的事情来支持该员工。从表面上看,它显示出积极的福利信息。

但是多少太多呢?员工是否意识到自己的心率正在被追踪?他们是否同意获取此数据?或者,在他们的眼中,他们只是被送给了一个漂亮的小巧的智能手表来在工作中佩戴,以便他们跟踪一天中的足迹?

在此阶段,如果员工同意提供此信息,并且他们知道正在跟踪他们的压力水平,那么也许一切都很好。如果这有益于他们的福祉,那么他们会感到高兴,这家公司也会感到高兴,并且会在改善企业社会责任的使命中打勾。但是,如果比这更深入呢?

多远才算远?

假设该公司是一个由500名员工组成的组织,并且每个人都被授予了此智能设备(并同意)。从这个位置开始,该技术可以开始预见病假,员工不满甚至是脆弱性。

收集了一年的数据之后,借助ML,该公司也许能够发现人们何时计划辞职。在Y压力水平的X时间之后,可能会有员工预订所谓的医生或牙医约会的模式。从这里开始,两周后,他们可能会发出通知。

走线

ML旨在查找这些类型的模式。此示例已简化,并且从理论上讲,该技术可以进行更深入的研究,但原理仍然存在。有了这些信息,管理人员就可以开始预测人们何时要离开工作岗位,并且在最坏的情况下,可以阻止某些请假请求。相反,他们可能会开始面试替代品,但是即使这样做,也存在一个固有的道德问题。

这也不一定必须反映出员工离开公司的情况。该工具甚至可以追踪员工之间经常聊天的频率,外出午餐时间以及在厕所上花费的时间。它可能甚至可以预测加薪/升迁的要求,或者可以在员工想预订假期时使用。

更暗的是,公司实际上可能会根据这些信息采取行动。他们可能会分开彼此分散注意力的同事(当然,这对他们来说是未知的),采取措施劝阻各种要求,或者说服员工改变工作时间以纯粹基于他们的生物数据来提高员工的生产力。对于希望利用此类信息的企业,考虑的是,即使他们对雇主将在何处以及如何使用其数据有清晰的了解,也很难想象有人同意这种数据的使用。

企业也倾向于将AI视为自动执行低价值任务的一种方式,而是将人为因素从某些功能中完全去除。作为业务和技术领导者,我们有责任考虑AI对我们员工的道德影响,使用AI为他们的工作增加价值和效率,并且在不可避免的工作岗位流失–希望为受影响的人们提供再培训的机会。我们可能还需要保持“人类处于循环中”-也就是说,让人类参与对AI决策的监控,以使人仍然相信人类可以控制。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。