播种人的价值为AI的心脏

一个哲学家想在人工智能中最糟糕的可能后果收服它们发生之前。

Ethicist Tim Dare wants to sow human values into AI systems
伦理学家和哲学家添敢:“我们现在必须做的事情与困扰看数据的能力。”
 Number one in the Times Higher Education (THE) 2020 University Impact Rankings
北京赛车是排名第一在全球范围内的泰晤士高等教育大学排名的影响的2020年(1号也是在2019年)。排名评估的大学是如何对联合国可持续发展目标而努力。
SDGs 10 (Reduced inequalities) and 16 (Peace, justice and strong institutions)
研究认为,以响应由联合国可持续发展目标所带来的挑战。

教授蒂姆不敢说,“我们现在必须做数据的事情,看起来麻烦,使私密性非常棘手,因为我们现在可以知道的人,他们没有告诉任何人,在某些情况下,可能不知道自己的事情的能力。”

Tim是在北京赛车,谁对他们如何部署AI系统,以保护隐私,避免伦理道德的陷阱与公共机构工作的伦理学家。

自2000年以来权威人士说,我们已经进入了工业革命的第四个阶段。第一阶段开始于1784年与蒸汽动力,机械制造,铁路,约1870年第二带来大量生产和电力第三从1969年锯自动化生产,电子计算机的出现,我们现在是在AI,大时代数据和机器人,一个相互依存的一套技术,已经改变了我们的生活,工作和管理社会的方式。

到2020年,一些估计,AI系统将在$ us47十亿已经提高了生产率。看十年远一点,顾问普华永道预测的一次重大飞跃,随着生产力和ai的贡献us15.7万亿进一步$,超过中国和印度当前的经济产出创造了新的市场。

当人们罗圈术语如机器学习,大数据,神经网络和语义推理,可能很难获得对什么是实际发生的修复。 在最近的一份报告皇家学会的AI的定义 是:“为解决问题,进行决策或执行任务,如果由人执行的,需要思考的计算方法和技术术语。”

艾论坛,新西兰的语音人工智能社区喜欢的:”先进的数字技术,使机器复制或超越,将需要的情报,如果人类是执行他们的能力。”

蒂姆说,在一定意义上的AI是一样的人的判断只有更好。 “这是如果我们有一个更大的大脑和一个更好的记忆,我们会做什么。它成为人工智能,当我们把它说,“OK,你预测这些情况,现在我们会给你你是否是正确信息”和艾调整自己的算法,在恒定的迭代过程微调的精度它的预测“。

如果这听起来像是科幻小说,现实既可以是平淡和不安。

如果这听起来像是科幻小说,现实既可以是平淡和不安。教育部有自2016年使用的校车路线优化器(STRO),为全国各地的72000名儿童工作进行最有效的校车路线。该部说,STRO降低公交出行时间,并与温室气体,同时每年节省约$20米了校车的预算。

大约每年以200万个的索赔约十亿$ 4的成本事故赔偿公司覆盖。 ACC正在开发一种新的AI系统,以提高索赔是如何评估和分析提交六年期间,以确定相关的索赔是否被接受的特点1200万个索赔批准。我们的目标是通过人工智能简单索赔加快审批,使复杂的问题,对人类的评估。 ACC热衷于添加艾不会给予否认索赔的权力。

公共不适

而这是很难狡辩使校车交通更好,使用AI的确定更为严重,生活发生变化的决策和政策应该给我们暂停。
这种不适是非常公开的由阿内·托利表示,那么在2015年的社会发展部部长她做了她的意见明确,当她通过不攻自破社会发展部的早期尝试预测和确定面临从出生虐待的高风险儿童。托利说 东西:“哪里来的那张有再大的伦理问题。因为上帝知道,我们真的希望与剪贴板敲人们的门,说的人:“你好,我是来自政府,我来这里是为了帮助,因为你的孩子们将在监狱中结了?”我可以”看不到这种情况发生。”托利的立场上简报清楚她的纸条,“不是我的手表。孩子不是实验室的老鼠“。

蒂姆是由卫生部委托项目的伦理审查的作者。该项目由博士锐玛vaithianathan领导,然后北京赛车,目前在奥克兰理工大学已经建立了一个预测风险模型被用于2003年和2006年的目标之间出生的孩子回顾性测试是检查模型的反对什么预测实际上发生在儿童。这纯粹是一项观察性研究。没有政策变化,没有一线工人会访问的预测分数。

引进AI之前,人类呼叫接受者是
筛选出的最高风险的情况下27%和48%筛查
风险最低的情况。

虽然这里罐头,研究已自2016年应用到阿勒格尼县一个家庭的筛选工具,宾夕法尼亚县的儿童危害热线收到了一年来手动检查各种渠道的员工超过15000个电话来决定是否孩子服务人员应该干预。引进AI之前,人类的通话考生被筛选出来的风险最高的情况下,27%,在风险最低的情况下,48%的筛选。

蒂姆说,“它很重要,如果你的资源有限,那么你不想把它们放错了地方。但是这不是主要的论点。干预是沉重的负担。如果您有不必要的干预,那么它会创建上并不需要它的家庭的负担。

“这是关于把你的服务,他们将在那里做最良好的和最小的伤害。我们不能帮助每一个孩子,所以我们需要帮助谁最需要它的孩子们。”由于引进的工具,高风险的情况下,现在被正确地鉴别分类高达90%的时间。

正是因为这样的经验,如果添了一个人的医生之间进行选择和AI,他会去艾每次。“所有的证据是,一个好的算法是更好的。它避免了明显的缺陷和偏见,它可以更快地做到这一点,它不依赖于个人经验“。

outperfoming人

诊断医学AI系统,法律和金融已经超越人类。有一个AI,可以肺癌区分,并提供更准确的预后比人类病理学家。另一个系统可以发现阿尔茨海默氏病有80%的准确性,十年症状出现之前。

在法律界,人工智能程序已与79%的准确率预测的欧洲人权法院的判决,类似的ai的管理75%的准确预测美国最高法院的裁决,demonstrably优于83个法律专家小组谁是时权60%。关于全球每日股票交易的60%是由计算机完成,期望的是,人工智能将在2020年管理的2.2万亿$资金。

我们的期望是来自私营部门的甚至在公共部门更高的高透明度。该数据的复杂性,以及如何艾揭示模式的手段往往是无法解释的AI如何来决定。

蒂姆说,“要素的组合和数据的比例都太复杂。所以AI的黑盒子变得高深莫测。预测是无法解释的,尽管它们可以被验证为准确“。

蒂姆说,道德鱼钩的阵列是显著但是他说,我们必须找到方法来管理和减轻他们,因为AI将隐私的尽头,因为我们知道这一点。

蒂姆一直致力于维护如何艾则使用由公共部门。社会发展部,他和球队已经试用了隐私权,人权和道德,帕府,有详细的在线评估工具,以确定隐私人权,伦理的一个AI方案设计周期的早期风险。

蒂姆·帕描述为“建议和警告,有关章程建设的部分进入它看中的调查问卷。”试用之后,我们的目标是在所有的公共服务考虑的AI应用程序中使用帕。

“AI是不可避免的。一个原因是,它可以带来的巨大好处。另一个原因是AI即将到来准备好了没有。他们是这样功能强大的工具,所以我们需要得到什么好处的用途是什么它不是强有力的手柄。我们需要在使用前和中心的伦理“。

蒂姆认为,该工具将同样受益的私营企业。最佳实践运用人工智能的可以说是市场优势。 “我怀疑任何人在成为下一个剑桥的analytica的兴趣。”

故事:黄吉尔伯特

研究员肖像:爱丽丝马纳汉

挑战 距离奥克兰约大学的连续系列
怎么我们的研究人员正在帮助解决一些世界面临的最大挑战。

重新发布这篇文章,请联系: gilbert.wong@auckland.ac.nz