https://www.thornoak.com

人工智能创新对人类情感产大发体育平台生了不

  人工智能正在我们周围传播。无论是针对社交媒体上的广告,过滤申请人的工作,确定机票价格,通过语音识别来控制集中供暖,创建文化输出,大发体育平台还是调节交通流量,AI都在执行人类生活中越来越多的任务。

  到2017年底,Elon Musk 充满信心地预测,无人驾驶的特斯拉汽车将能够在没有人为输入的情况下安全地在美国各地进行海岸到海岸的旅行。社交机器人 - 与我们住在一起的基于人工智能的机器 - 可以在十年内定期执行许多家庭或护理任务。到2050年,人们普遍估计我们将超越这些特定应用并取得人工智能(AGI)。AGI是所谓的奇点的一部分:计算机在任何认知任务中都可以胜过任何人,并且人机集成是司空见惯的。之后发生的事情是任何人的猜测。

  良性情景包括人体内部有计算机部件,以帮助更快地处理数据。AI中的一些人所设想的“神经网格”将作为我们大脑外部的一种额外皮层,将我们与电子设备联系起来,速度和效率都很高。在今天的“原始机器人”中,这将成为机器零件(电子起搏器和钛合金接头)的重大升级。

  人工智能未来的世界末日变异往往集中在军事和国防应用上,完全自主武器的概念尤其引起争议。一个武器系统可以根据算法搜索,识别,选择和摧毁目标,并从过去的安全威胁中学习 - 没有任何实时的人工输入 - 是一个非常可怕的概念。人工智能主导的人类未来的这些愿景近似于一个让人想起终结者的科幻反乌托邦。

  对人类的破坏可能还有一段路要走,但今天围绕人工智能的警示标志已经敲响警钟。就在过去的一个月里,机器学习算法已经采取措施,主动向亚马逊购物者提出炸弹制造组件,使就业广告中的性别不平等永久化,并通过社交媒体传播仇恨信息。大部分失误是由于机器用来学习的数据的质量和性质。美联储对人类的偏见数据,将得出有缺陷的结论。今天的这些结果提出了关于算法治理伦理学和日常生活中更广泛的人工智能机制的严肃问题。

  最近,一名有心理健康困难史的年轻美国男子因为通过算法过滤他对人格调查问卷的回答而被拒绝找工作。他认为他受到了不公平 - 非法 - 歧视,但由于该公司不了解该算法是如何运作的,而且就业法目前还没有明确涵盖机器决策,他无法上诉。对中国以算法为主导的 “社会信用”计划也提出了类似的担忧,该计划去年的试点收集了社交媒体(包括朋友的帖子)的数据,以评估一个人的“公民身份”的质量,并将其应用于是否为给那个人一笔贷款。

  需要明确的人工智能操作和监管道德体系,大发体育平台特别是当政府和企业使用在推动算法的总体目标中优先考虑获取和维持电力或财务利润等因素时。以色列历史学家Yuval Harari 就无人驾驶汽车以及哲学推车问题的新AI版本进行了讨论。像麻省理工学院道德机器这样的创新尝试收集人类对机器伦理的输入数据。大发体育平台

  但道德规范并不是唯一提出人工智能和人类福祉问题的领域。人工智能已经对人类产生了重大的情感影响。尽管如此,情感在很大程度上被忽视,成为AI研究的主题。在过去的两年里,随意浏览一下Web of Science学术数据库,共发表了3,542篇关于人工智能的同行评审文章。其中只有43个 - 仅为1.2% - 包含“情感”这个词。实际上,人工智能中的情感研究实际上更少。在考虑奇点时,似乎应该在考虑智能机器中的认知架构时解决情绪问题。然而,99%的人工智能研究似乎不同意。

  当我们谈论AI中的情感时,我们指的是几个不同的东西。一个领域是机器识别我们的情绪状态并采取相应行动的能力。这个情感计算领域正在迅速发展,通过复杂的生物识别传感器,能够测量我们的皮肤电反应,脑电波,面部表情和其他情绪数据来源。现在大多数时候,他们做对了。

  这种技术的应用范围从可爱到彻头彻尾的险恶。公司可以获得有关您对电影的情绪反应的反馈,并尝试通过智能手机实时向您推销相关项目。政治家们可能会制作保证在特定受众情绪上具有吸引力的信息。不那么冷嘲热讽,社交机器人可能会调整其响应以更好地帮助处于医疗或护理环境中的弱势人群,或者基于人工智能的数字助理可能会选择一首歌来帮助提升情绪。市场力量将推动这一领域,扩大其影响范围,并提高其能力。

  人工智能中的第二个情感领域 - 也就是知之甚少的领域 - 是人类对人工智能的情绪反应。人类似乎与人工智能有关,就像我们对大多数技术一样,将个性归因于无生命的物体,使用具有意向性的电器,并且通常将情绪投射到我们使用的技术上(“我很生气,这就是为什么它不起作用”)。

  这被称为媒体方程。它涉及一种形式的双重思考:我们在认知上理解机器不是有感知力的生物,但我们在情感上对它们的反应就像它们一样。这可能源于我们基本的人类需要将社交和情感联系起来,如果没有这种需要,我们就会变得沮丧。我们被驱使与人,动物,甚至机器有关。大发体育平台感官体验是这种联系驱动及其奖励机制的重要组成部分,也是其自身权利的源泉。

  当我们的环境中缺乏粘合和归属的体验时,我们就有动力通过电视,电影,音乐,书籍,大发体育平台视频游戏以及能够提供身临其境的社交世界的任何东西来复制它们。这被称为社会代孕假说 - 社会心理学的经验支持理论 - 它开始应用于人工智能。

  即使是无实体的人工智能,基本的人类情感也是明显的:来自数字助理的自发恭维的快乐; 对拒绝抵押贷款申请的算法感到愤怒; 害怕乘坐无人驾驶汽车的可能性; Twitter的基于人工智能的拒绝验证你的帐户的悲伤(我仍然在从那个人那里护理受伤的自我)。

  体现AI的情绪反应更强烈,这通常意味着机器人。机器人越像人类,我们对它的情绪反应就越强烈。我们感到被与拟人机器人联系在一起,对他们表达积极情绪,并在我们看到他们受到伤害时感同身受并感到难过。如果他们拒绝我们,我们甚至感到难过。

  有趣的是,如果一个机器人几乎完全是人类 - 但不是完美的人类 - 我们的评估会突然下降,我们拒绝它们。这被称为“神秘山谷”理论,它导致设计决策,使机器人不那么人性化,而不是更多,至少在我们能让机器人看起来完全是人类之前。

  AI现在正在利用触觉技术 - 基于触摸的体验 - 来进一步加强人与机器人之间的情感纽带。也许最着名的例子,Paro蓬松的印章,什么叫能源已被发现对不同国家的护理环境中的一系列群体有益。

  社交和情感机器人有许多潜在的应用。其中一些包括照顾老人以促进自主生活; 为经历隔离的人提供帮助; 和痴呆症,自闭症或残疾人士的帮助。基于触摸的感官体验越来越多地融入到虚拟现实等沉浸式技术中,这也是其中的一部分。

  在其他领域,人工智能可能会接管日常的家务劳动或教学等任务。一项针对750名5至18岁韩国儿童的调查发现,虽然他们中的大多数人在接受学校人工智能机器人教授的课程时没有任何问题,但许多人对人工智能教师的情感作用表示担忧。机器人能够为学生提供咨询或情感联系吗?尽管如此,超过40%的人赞成在课堂上用AI机器人取代人类教师。

  正如哈佛大学心理学家史蒂芬平克所说,综合上述社会代孕的经验可以让我们欺骗自己。我们没有经验本身,但我们欺骗大脑,使我们相信我们感觉更好。然而,传真并不像真实的那样好。

  显然,人们可以通过与AI的互动来体验真实的情感。但是,在无人驾驶的汽车,无实体的助手,机器人教师,清洁工和玩伴中,我们会在一个不太遥远的世界中遗漏一些东西吗?

  这个场景让人想起哈里哈洛的着名实验,在这些实验中,孤儿猴可靠地选择了一个柔软皮毛的触觉“母亲”,并且没有牛奶覆盖着分配牛奶的冷丝网“母亲”。我们是否能够在技术上满足我们想要的一切,只是意识到人类的基本需求和现实世界感官体验的乐趣是不存在的?对于未来的奢侈品,我们是否会寻求手工制作与大规模生产的垃圾食品的社会等价物:真实的感官体验以及与真人而非机器人的接触?

  答案是,现在,我们不知道。但99%的人工智能研究没有关注情绪这一事实表明,如果情绪确实在人工智能中扮演更重要的角色,它或者是作为事后的想法,还是因为情感数据能够通过人工智能产生更多的力量和金钱 - 经营设备及其雇主。

  一个数字化的人文主义议程 可能会帮助我们记住,当我们朝着奇点发展并与我们身体内外的计算机融合时,我们不应该忽视我们古老的哺乳动物大脑以及他们对情感纽带的需求。该 OpenAI项目是实现这一步骤,旨在让AI的好处提供给所有。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。