公共服务中的AI必须是负责任的
担任舞台活动击中巢家安全摄像头
HPE将瑞士支持的投标加入世界各地的“脱碳”的数据中心
大学部长说,BREXIT在EDTECH上全球合作的机会
SAP用户组推出商业一家学院
Lloyds银行集团签署五年谷歌云交易
斯德哥尔摩的数据中心繁荣后面是什么?
CBRE:纪录拼接卷取将燃料次要欧洲数据中心的增长
公开询问的压力在邮局IT系统丑闻开始于山上攀登
被指控的中国军人被指控赤列黑客
在英国推出的伦理AI研究网络
成人社会护理组织在数字的资金中获得450万英镑
华为拒绝来自美国司法部的扒手和盗窃声明
华为被排除在英国5G核心之外,但在无线电网络中保留了地方
英国敦促在全球数字贸易中接受中心阶段
在边缘计算
高盛认为云服务销售给其他金融公司
国泰航空以500,000英镑的数据保护罚款,从ICO超过2018年违规行为
商业,企业用案例将VR驱动到2024年的24.5亿美元
CIO采访:Ian Cohen,首席产品和技术官,Addison Lee
Dasa奖AI舰艇合同
Travelex Hackers在大规模的“网络攻击”中关闭了德国汽车零部件公司Gedia
体育零售商迪卡侬左雇员数据暴露
ANZ公司不适用于处理技术问题
OPPO加入爱立信5G频谱共享项目
Oliver Dowden:英国可以“无耻地亲科技国家”
报警铃声,物联网正在倾听
反托尔布尔牌联盟呼叫侵入式滥用者
Klaxoon声称移动工作空间首先作为多团队项目成为常态
英国政府宣布为机器人发展的新资金
科技妇女在2020年新年荣誉名单中表现出强劲的存在
全国建筑协会通过抵押API开辟了系统
倡议为15个项目提供1.5亿英镑,以减少英国的数字排除
2019年大选:劳工的技术政策和数字计划
风险和保证小组加入I3Forum来打击电信欺诈
关于TSB IT灾难的主要报告很快
Qualcomm和中兴声称5G与语音通话的地标
AI可能在地缘政治中开放危险的新边疆
公众屋试图安全主管
Ofcom简化了宽带交换机过程和offaws锁定的手机
AWS如何增长其ASEAEA的足迹
华为:5G增长将在没有我们技术供应的情况下维持
思科承诺用新的协作套件承诺获得CIO数字转型收益
随着Telefónicadeutschland的算命,华为奠定了中期战略
Kudelski提出了Microsoft Azure IoS安全解决方案
政府确认IR35私营部门改革在4月20日起开始日期
Macy的Magecart Breach饰演圣诞欺诈飙升
AWS点击开源盗窃指控
荷兰地平线上的自治船
AT&T在混合Q3后持有三年的主要收购
您的位置:首页 >政策法规 >

公共服务中的AI必须是负责任的

2021-09-10 08:44:06 [来源]:

在公共生活委员会委员会看着人工智力(AI)的风险委员会的一份新报告建议融入AI治理框架。

根据人工智能和公共标准报告,自动化决策将彻底改变公共部门的许多以人为际的行政任务。该报告指出,AI的使用须经一般数据保护法规(GDPR),行政法等等行为的规定。

该报告建议,政府和监管机构建立了一项连贯的监管框架,规定了关于如何在公共部门使用AI的明确法律边界。“监管机构还必须为改变为公共部门的做法做好准备,”它说。“我们得出结论,英国不需要特定的AI监管机构,但所有监管机构都必须适应AI对其特定部门构成的挑战。”

在报告中发表的Deltapoll的投票,发现2016年调查的69%的调查对于AI决策,如果一个人为决定是最终决定的。引用“信息委员会的办公室AI审计框架”,其特征和公共标准报告说:“审稿人必须”重量“和”解释“建议,考虑所有可用的输入数据,并考虑其他其他因素。”

该报告的作者建议政府为数据伦理(CDEI)建立了一个数据伦理中心,作为协助AI领域的监管机构的监管保证中心。

公共生活标准委员会主席Jonathan Evans谈到BBC的今天,说:“我们相信AI将在公共部门进行使用。我们需要认真考虑AI如何在公共生活的七项原则中所列出的测试 - 透明度,客观性和问责制等。“

埃文斯建议公众有权询问如何在公共服务中使用AI。“作为公众的成员,您担心您的信息正在使用或通过使用人工智能提供您的服务,然后在政府和公共服务上努力让您知道,”他说。

埃文斯承认,这些请求可能属于现有的信息框架自由,但建议政府也应该更积极主动。“很难找出正在使用什么算法,并且在哪里,这是一个重要的失败,”他说。“我们认为任何机构应该使用AI的主动声明,以便人们可以快速轻松地了解[此信息]。”

回复报告,影子数字部长智武拉说:“在公共部门的使用AI方面,保守党政府失败了开放和透明度。去年,我争论在议会中,政府不应接受在决策过程中的进一步AI算法,而不会引入进一步的监管。

“我将继续推动政府进一步分享关于AI目前在各级政府中使用的信息。正如本报告所示,迫切需要实际指导和可执行的规定工作。现在是行动的时候。“

报告称,AI系统使决策的效力完全取决于所使用的培训数据集。“即使在良好的意图引入AI的地方,质量差的数据或缺乏关于AI系统如何运作的知识也将导致不需要的结果,”它说。“公共机构应该在不同的人口组上定期重新测试并验证他们的模型,以观察任何群体是否正在系统地优缺点或弱势,因此他们可以在必要时更新他们的AI系统。”

BILL MITCHELL是BCS政策总监,已添加特许研究所,补充说:“在计算机科学上有一个非常古老的格言,总结了支持AI支持的公共服务的许多问题:'垃圾进垃圾出。'换句话说,如果将差,部分,有缺陷的数据放入计算机中,它会盲目地遵循其编程和输出差,部分,有缺陷的计算。

“AI是一种统计推理技术,可以通过示例学习。这意味着如果我们允许AI系统从“垃圾”示例中学习,我们将最终获得一个统计推断模型,它非常擅长产生“垃圾”推论。“

Mitchell表示,该报告强调了让佩戴队伍的重要性,这些团队将有助于使公共当局更有可能确定AI项目的任何潜在的道德陷阱。“许多贡献者强调了普遍性的重要性,告诉委员会认为佩戴球队会导致更多的佩戴思想,而且,这反过来,这将有助于公共当局确定AI系统的任何潜在的不利影响,”他说。

该报告敦促政府在市场上使用其购买力,以确定采购要求,以确保为公共部门开发AI系统的私营公司妥善解决公共标准。该报告建议,应通过确保在采购进程的早期考虑道德标准的规定,并明确地撰写招标和合同安排。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。