nao机器人
位置:首页 >> 新闻中心 >> 机器人新闻

机器人新闻

  • 我们对人工智能机器人盲目信仰的后果正在赶上我们

  • 对人工智能(AI)及其大幅改变业务绩效和简化公共服务成果的能力的热情越来越高。



    然而,就创新的渴望而言,实际上,人工智能的关键点通常伴随着对新技术的危险和局限的严重缺乏理解。

    特别是当局开始对人工智能的潜力感到失望。但他们是否正在考虑并采取足够的措施来避免伤害和不公正?

    全球各地的组织都在不断努力将AI引入项目和产品。从面部和物体识别到可机器诊断疾病比更准确的医生在美国,AI已经达到英国的海岸,并在过去几年成倍增长。

    可以预见的是,这个令人兴奋的技术创新新时代也引发了严重的道德问题,特别是在应用于社会中最脆弱的人群时。

    大多数工程师和数据科学家一直在使用一种称为机器学习的强大工具 - 与简单的统计预测相比,它提供了更加精确和更准确的预测。它们是一种常用的算法类型 - 就像Netflix用来向用户推荐节目的那种算法 ,或者是那些让你在任何地方看到“相关”广告的算法。在Alexa和Siri等虚拟助手中使用的更复杂的系统,如计算机视觉,用于面部识别和自然语言处理,也正在快速开发和测试。

    慢慢但肯定地,机器学习也在不断涌现并帮助制定公共政策 - 在医疗保健,警务,缓刑服务和其他领域。但是,关于在一般人群中使用这种技术的道德问题,是否有一些关键问题?

    想象一下机器对生命关键方面的预测中“假阳性”的潜在成本。想象一下,被一支警察错误地指定为可能根据算法的实际观点犯下了一个犯罪的人,它实际上并没有“理解”。这些是我们可能比我们想象的更早暴露的风险。

    例如,West Midlands Police最近宣布开发一个名为NAS(国家分析解决方案)的系统:一种预测模型,用于“猜测”某人犯罪的可能性。

    这一举措符合国家警察局长理事会推动数据驱动的警务的要求,正如未来10年的警察计划2025所述。尽管阿兰图灵研究所的一个伦理小组在最近的一份报告中表达了担忧,其中包括有关“监视和自治以及可能推翻无罪推定”的警告,但西米德兰兹警方正在推行该系统。

    同样,国家罪犯管理处(NOMS)OAsys工具,用于评估罪犯的再犯风险,越来越多地依靠自动化作出决定,尽管人类的投入仍然是决策的先例。

    然而,正如美国司法系统所看到的那样,趋势是不再需要人类的洞察力,并允许机器独立做出决策。但是,数据 - 关于人类行为的原始,干燥和技术信息 - 能否成为预测未来行为的唯一指标?

    最近,一些机器学习学者和从业者提出了算法“决策”中的偏见问题,这是正确的。如果可用于“教”机器重新犯罪的唯一数据一直指向来自不同种族的罪犯,例如,更有可能进入刑事司法系统,并留在其中,机器可能会将其计算为无论背景和环境如何,适用于任何适合人口统计的个人的普遍真理。

    缺乏问责制是困扰行业的另一个难题,因为人类没有已知的方法来分析算法决策背后的逻辑 - 一种被称为“黑匣子”的现象 - 因此“追踪”机器预测和纠正中的可能错误这很难。

    很明显,算法还不能作为人类洞察力的可靠替代品,并且在数据收集和处理阶段也受到人类偏见的影响。尽管机器学习已成功用于医疗保健,例如,算法能够快速分析大量数据,发现隐藏模式并比人类更准确地诊断疾病,但机器缺乏预测人类行为的洞察力和背景知识。

    至关重要的是,使用AI的伦理影响不会被行业和政府忽视。当他们匆匆进入全球人工智能竞赛作为严肃的参与者时,他们绝不能忽视糟糕科学的潜在人力成本。