如今,人工智能(AI)的偏见备受争议。从不恰当地标记人脸的图像分类器到雇用在甄选应聘者时歧视女性的机器人,人工智能似乎都在试图自动复制时继承了人类最坏的做法。

风险在于我们将使用AI来创建一支种族主义,性别歧视,口臭的机器人大军,然后它们会再次困扰我们。这是一个道德困境。如果AI固有地存在偏见,依靠它是否危险?我们最终会塑造最糟糕的未来吗?

机器将是机器

首先让我澄清一件事:AI只是一台机器。我们可能将其拟人化,但它仍然是一台机器。这个过程与我们和孩子们在湖边玩石头的过程并没有什么不同,突然之间,一块呆板的石头变成了可爱的宠物石头。

即使与您的孩子一起玩耍,我们通常也不会忘记,无论多么可爱的宠物石头仍然只是一块石头。我们应该对AI做同样的事情:无论人类如何喜欢它的对话或外观,我们都不应忘记它仍然只是一台机器。

例如,前段时间,我从事机器人项目:教师机器人。这个想法是为查询有关开源数据科学软件KNIME Analytics Platform的文档和功能的信息生成自动的信息性答案。在所有的bot项目中,一个重要的问题是说话的风格。

有许多可能的说话或写作风格。对于机器人,您可能希望它友好,但又不要过分友好-视情况而定,有时又要果断。博客文章“用60个词来描述写作或口语风格”列出了60种不同的机器人说话风格的细微差别:从健谈和对话到抒情和文学,从有趣和雄辩的语言到正式的语言,以及我最喜欢的不一致语言。我的机器人应该采用哪种说话风格?

我选择了两种可能的风格:礼貌和自信。礼貌到诗意的极限。主张不礼貌地接壤。两者都是自由文本生成问题。

作为该教师机器人项目的一部分,几个月前,我实现了一个简单的深度学习神经网络,该网络具有一个隐藏的长短期记忆(LSTM)单元层,可以生成自由文本。

网络将采用M个字符序列作为输入,并在输出层预测下一个最可能出现的字符。因此,给定输入层字符“ hous”的顺序,网络将预测“ e”为下一个最可能出现的字符。在免费句子的语料库上进行训练后,该网络学会一次生成单词甚至句子一个字符。

我不是从头开始构建深度学习网络,而是(按照当前在互联网上查找现有示例的趋势)在KNIME Hub上搜索了类似的解决方案,以生成免费文本。我找到了一个,其中一个类似的网络接受了有关现有真实山名的培训,从而为一系列用于户外服装的新产品生成了虚假的,无版权的山样候选名称。我下载了网络并根据自己的需要对其进行了自定义,例如,通过将多对多转换为多对一的体系结构。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。