证明您不是机器人越来越难
去年某个时候,Google不断要求证明我是人类,这似乎越来越具有侵略性。 对于一个简单又有点太可爱的按钮“我不是机器人”,越来越多的需求开始显现出来,即通过选择图像网格中的所有交通信号灯,转场或窗户来证明这一点。 不久,交通信号灯开始藏在树叶中,过渡处变形并转过拐角,商店的招牌变得模糊并改用韩语。 未能在图像中找到消火栓的尝试非常令人失望。
这些测试称为CAPTCHA,是“ Turing旨在区分人和计算机的全自动公共测试”的首字母缩写,一旦它们达到类似的模糊度。 在2000年代初期,带有文字的简单图像足以阻止大多数垃圾邮件机器人。 十年过去了,在Google从卡耐基梅隆大学的研究人员那里购买了该程序并将其用于Google图书项目的数字化之后,这些文本不得不被越来越多地变形和隐藏,以赶上改进的光学字符识别程序-正是这些程序他们帮助改善了必须解决所有这些验证码的人员。
由于CAPTCHA是用于训练AI的出色工具,因此任何发明的测试只能持续一段时间,其发明者承认。 在所有这些研究人员,骗子和普通人解决了数十亿个难题之后,濒临AI的可能性,在某些时候,这些机器已经超越了我们。 2014年,Google
在解决最失真的文本和人员问题上采用了自己的最佳算法:计算机在99.8%的案例中正确识别了文本,而在
33%的案例中正确识别了文本。
此后,Google切换到
NoCaptcha ReCaptcha ,它监视人员的行为并收集他们的数据,这使其中的一些人只需单击“我不是机器人”按钮就可以走得更远,而其他人则给他们任务以搜索我们今天看到的图像。 但是汽车再次超越了我们。 所有这些遮阳篷,可能是也可能不是商店的橱窗,是军备竞赛的最后阶段。
芝加哥伊利诺伊大学计算机科学教授杰森·波拉基斯(Jason Polakis)个人负责验证码的近期复杂化。 2016年,他发表了一篇作品,其中使用了包括Google自己的图像搜索在内的现成图像识别程序,以使验证码准确性达到70%。 其他研究人员已经使用公司本身的语音识别程序处理了来自Google的音频验证码的识别。
Polakis说,机器学习在识别简单的文本,图像和语音方面并不比人类差。 算法甚至可以做得更好:“我们已经达到了这样一个程度:软件任务的复杂性导致人们对任务变得过于复杂的事实。 我们需要替代方案,但目前尚无明确的计划。”
CAPTCHA文献中充斥着错误的开端和奇怪的尝试,试图找到除文本和图像以外的其他东西,所有人都做得好,而汽车做得不好。 研究人员
试图为用户提供按面部表情,性别和种族分类的图像(您可以想象它是如何进行的)。 有建议用小测验来组织验证码,该验证码基于
摇篮曲 ,在用户长大的地方很常见。 这种具有文化参考意义的验证码不仅针对机器人,而且还针对来自其他国家/地区的人,这些人决定为一分钱验证码。 人们试图将图像识别算法推入死胡同,促使用户识别例如一头猪,但同时要画在太阳镜上。 研究人员已经探索了多种选择,例如邀请用户识别
万花筒哈希中的对象。 在2010年的一项有趣的选择中,研究人员建议使用验证码对
古代岩画进行分类-计算机在识别洞穴壁上鹿的草图或图像方面做得很差。
最近,人们尝试开发
游戏验证码 ,其中用户需要以特定角度旋转对象或移动拼图块,解决验证码的指令不是以文本形式给出,而是以符号形式给出,或者被游戏环境所暗示。 希望人们能理解难题的逻辑,而计算机会在没有明确说明的情况下绊倒。 其他研究人员试图利用人有身体这一事实,并使用设备摄像头或增强现实技术以交互方式确认人的存在。
这些测试中的许多问题不是机器人太聪明,而是人们对它们的表现不佳。 并不是说人们很愚蠢。 它们在语言,文化和经验上差别很大。 摆脱了所有这些因素之后,为了进行测试,使任何人都可以通过而无需经过培训和漫长的思考,我们就剩下诸如图像识别之类的不礼貌的任务了-这正是专门定制的AI会做得很好的。
“测试受到人员能力的限制,” Polakis说。 -这不仅与身体能力有关-您需要找到跨文化,跨语言的东西。 我们需要一项任务,该任务必须与希腊人,芝加哥人以及南非,伊朗和澳大利亚的人同时工作。 而且它不应该取决于文化的细微差别和差异。 我们需要一个普通人能够很好地应对的任务,它不应该局限于特定的人群,并且对于计算机来说应该是困难的。 所有这些极大地限制了选项的选择。 而且这也应该是人们迅速应对的,这并不是很烦人。”
尝试用模糊的图片解决这些谜语的方法会将人迅速转移到哲学的轨道上:是否可以向机器展示任何普遍的人类素质,并且机器不能模仿? 成为人类意味着什么?
也许不是通过执行任务的方式来衡量我们的人性,而是通过我们的行为方式(在整个世界范围内,或者在这种情况下,通过互联网)来衡量。 Google的反点击自动化团队Shuman Ghosemajumder说,游戏验证码,视频验证码和您能想到的任何验证码都会被黑客入侵,后来他成为Shape Security的机器人检测技术总监。 他倾向于“永久授权”而不是单独的测试-监视用户行为并搜索自动化的迹象。 Gosmahumder说:“一个真实的人不能很好地控制运动技能,即使在多次互动中,也无法以相同的方式多次移动鼠标,即使他尝试这样做也是如此。” Gosmahumder说,机器人将无需移动鼠标或非常精确地移动它即可与页面进行交互,并且在人的动作中会出现难以伪造的“熵”。
Google自己的验证码团队的工作方向与此类似。 去年年底发布的最新版本的
reCaptcha v3使用“自适应风险分析”来评估流量的可疑性。 网站所有者可以为可疑用户提供诸如输入密码或两因素授权之类的任务。 团队产品经理Cy Khormaee表示,除了公司评估网站上的“良好访问量”并使用此信息过滤“不良访问量”外,Google没有透露估算中考虑了哪些因素。验证码。 安全研究人员说,这可能是Cookie,浏览器属性,流量模式和其他因素的混合物。 新的机器人识别模型的一个缺点是,当试图最小化用户观察时浏览Web可能会有些烦人,因为VPN和扩展之类的东西很难跟踪用户。
Google的CAPTCHA团队首席工程师Aaron Malenfant表示,从图灵测试的转变应该避免人们一直在流失的竞争。 “我们在机器学习上投入的资金越多,这些任务对人们的难度就越大,尤其是这就是我们推出CAPTCHA V3的原因-要领先于这一曲线。” Malenfant说,经过5到10年后,验证码中的任务完全没有意义。 大多数Web都依赖于Turing在后台运行的恒定的隐藏测试。
布莱恩·克里斯蒂安(Brian Christian)在他的《最人道的人》一书中作为诱饵参加了图灵测试,并意识到很难在对话中证明自己的人性。 另一方面,机器人开发人员发现,这些测试很容易通过,而不会假装自己是一个雄辩的对话者,但可以用不合逻辑的笑话来回答问题,打错字,或者像
2014年在图灵竞赛中获胜
的机器人一样,声称您是一个13岁的乌克兰男孩,英语说得不好。 毕竟,犯错误是人类的天性。 验证码可能等待着这样的未来,这是世界上最常见的图灵测试-新的军备竞赛不会创造出在分类图像和解析文本方面优于人们的机器人,而是会犯错误,错过按钮,分散注意力和切换标签的机器人。 Gosmakhumder说:“我认为人们已经开始意识到,有一些领域可以模拟普通的人类用户……或愚蠢的人们。”
验证码可以在这个世界上持续存在。 2017年,亚马逊
申请了一项计划
的专利 ,该计划使用了视觉幻觉和逻辑难题,而这些难题很难让人处理。 该测试称为“转过错误测试”,唯一通过的方法就是给出错误的答案。