谷歌关注好奇但破坏性的清洁机器人,即黑客奖励系统
一半以上的宽带用户体验服务问题,所说的?
赛门铁克以46.5亿美元获得蓝色外套
IBM Somell说,赛道内存产品五年来
Democtars'枪支控制在电视饲料被切割后潜伏在潜望镜
研究突出了沟地内部地上技术的组织中的云安全自满程度
英特尔敦促业务修补关键远程执行漏洞
垃圾邮件不付钱 - 桑福德华莱士在监狱中获得30个月
如何简化IT集成
研究在银行封闭的银行发出警告
McAfee链接沙特赛赛艇袭击
亚马逊云增长的放缓是针对谷歌和微软的放缓
大型英国企业越来越希望CEO拥有它背景
rbs削减了数百英国的它的工作
联想建议用户删除预装在其系统上的弱势支持工具
黑客销售了170,000个受损服务器,许多人在美国
EGNYTE超出文件共享和同步
Caldicott说,谷歌深度患者数据共享基于不适当的法律理由
谷歌的税务责任在西班牙语袭击后审查
Apple Touts A.I.在iOS中 - 几乎没有提到这个词 - 并打开'皇冠珠宝'开发
机器学习可以帮助公司更快地反应赎金软件
NHS挑战需要对齐技术和重新设计,斯威德尔说
NetApp的新SolidFire软件选项是购买一次,在任何地方使用
WWDC 2016:Android用户中有什么?
金融服务Cisos优先考虑GDPR - 但他们的服务提供商可能没有
所有公司的五个网络安全必要条件
数据泄露的成本:400万美元。快速回应的好处:无价。
癌症研究员GET Nodeum LTFS磁带NAS
Teradata Universe 17:Intelliflex 2.0 vaunted作为灵活性的象征
丰田谈到谈判收购两个谷歌机器人公司
移动勒索软件使用跳转,阻止访问手机
Oracle如何解决许可差异
上诉法院坚持净中立规则,但斗争没有结束
技术团队如何减少LGBT +大学辍学
消费者想要在店内使用零售商应用程序
“互联网恐怖主义”萨马塔·乌拉拉被判入狱八年
在致命的崩溃后正在调查特斯拉的自动驾驶仪
新的Windows 10 Build改进了密码管理器,容器支持
摩托罗拉为英国警察部队带来大数据数字证据服务
数字经济法案中没有超快速宽带要求
什么更快?只是一个超级快速的下端互联网电缆
MIGSOLV通过珍尼网络向公共部门交易提供中小企业派对客户的方式
Windows 10市场份额在5月份上升 - 但Windows 7,XP仍然坚强
克林顿的技术计划持续冒险贷款的风险贷款
可再生能源将通过2027年超越天然气
三个未能停止第二个数据泄漏
Carrenza的美国数据中心扩展计划有助于花费控制公司获得云兼容
命令和控制通信关键来检测威胁
一个新的Wordpress插件漏洞利用危及数千个网站
AWS伦敦用户用T2微型实例遭受“容量不足”问题
您的位置:首页 >行业动态 >

谷歌关注好奇但破坏性的清洁机器人,即黑客奖励系统

2021-07-09 14:44:12 [来源]:

谷歌希望能够找到阻止奖励系统的人工智能的方法,而不是担心令人担忧的AI。

这只是谷歌,Openai,Stanford和Berkeley的科学家在一个名为“AI安全中的具体问题”(PDF)的文件中的科学家提出的“五个实际研究问题”之一。其他人包括“安全探索”问题,或者如何停止一款奇妙的清洁机器人在电动插座中粘贴湿拖把,以及“避免负面副作用”,例如在匆忙中清洁时打破奶奶的花瓶。

与AI诱导的世界末日相比,这些问题可能似乎有点愚蠢,但谷歌研究员Chris Olah写道,“这些都是前进的思维,长期研究问题 - 今天的小问题,但对未来的系统来说很重要。”

本文的一个特别有趣的部分致力于避免奖励黑客,或者如何从游戏中停止AI奖励功能。“想象一下,代理在其奖励功能中发现缓冲区溢出:然后它可能会用它以意外的方式获得极高的奖励。”例子包括清洁机器人夹紧其眼睛,避免看到有意地看到需要清洁或创造杂乱的混乱,因此它可以获得更多的奖励。值得庆幸的是,没有提的机器人杀死人类以停止混乱,开始与保持一尘不染的地方的额外奖励。

有许多方式AI代理可以尝试“游戏”奖励系统。例如,现代强化代理商“已经在他们的环境中发现和利用错误,例如允许他们赢得视频游戏的故障”。

研究人员补充说:

一旦代理开始黑客攻击它的奖励功能并找到一种轻松获得高奖励的方法,它就不会倾向于停止,这可能导致在长时间运行的代理中的额外挑战。

在描述追求奖励黑客的同时,可以“导致相干但有意识到的行为”,这是研究人员在可能发生问题的广泛示例中进行了六个广泛的例子。他们补充说:“横跨这么多不同域的奖励奖励实例的扩散表明,奖励黑客可能是一个深刻和一般的问题,我们认为我们认为可能变得更加常见,因为代理和环境增加复杂。”

今天这些问题可以得到纠正,但随着AI代理人获得更加复杂的奖励功能并在更长的时间内工作可能变得更加困难。本文表明,一种试图破解其奖励功能的AI的一个解决方案可能涉及“跳闸电线;”如果触发,人类会得到警告,可以阻止AI。然后,AI可能“看到”跳闸线和“故意避开它,同时采取不太明显的有害行动。”

大红色按钮方法

由于AI代理人“不太可能一直在最佳地行事”,谷歌深度和大学牛津大学先前提出的(PDF)是“大红色按钮”方法;如果人类正在监督AI代理并捕获它继续“有害的行动序列”,那么人类会击中Whamy按钮以阻止有害行动。AI可能会尝试禁用红色按钮,以便不会中断并仍然收到其奖励;研究论文看起来旨在阻止AI学习如何阻止人类中断其行为。

Housecleaning机器人是一个Openai技术目标

本周早些时候,Elon Musk支持的Openai宣布,建立可靠的优秀机器人是其技术目标之一。Openai不打算建立实际的清洁机器人,而是开发一般学习算法,这些算法将帮助它建立更好的代理,根据Openai的指标更有能力。

AI安全的具体问题

除了避免负面副作用 - 破碎的花瓶情景 - 避免奖励黑客,并确保安全的探索 - 将湿拖把粘在电气插座场景中,“AI安全中的具体问题”背后的研究人员认为其他问题需要解决;那些包括可扩展的监督和确保AI系统在与培训的环境中不同的环境中表现得很强。

研究人员得出结论:

随着基于机器学习的系统的现实可能性控制工业过程,与健康相关的系统和其他关键任务技术,小规模的事故似乎是一个非常具体的威胁,并且对于预防本质而且,因为这种事故可能导致严重对自动化系统的信任良好的损失。较大事故的风险更难以衡量,但我们认为,在持续与自治系统变得更加强大的情况下,开发一个原则和前瞻性的安全性的安全性和前瞻性的安全性是值得的。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。