
上周举行了第二十八届RSA会议,如果在2018年这一行业最大的行业盛会在寻找新含义方面
遇到一些
困难 ,那么这次一切都很好。 RSA总裁Rohit Gai致开幕词时专门介绍了“信任的风景”,并在此过程中试图为未来(尤其是2049年)画一个积极的前景。
这是积极的,因为它设法解决了当今的许多问题,甚至没有解决网络安全问题,而是解决了几乎完全与互联网和数字服务相关的新的社会发展模式带来的困难。 的确,如果您尝试从上面看这个话题(他们一贯喜欢在RSA上做),那么这不仅涉及黑客入侵某人的计算机或服务器的能力。 例如,存在社交网络中的操纵问题,有时服务本身有时会朝错误的方向发展。 在这种情况下,信任的概念(用户对公司,人员对人工智能)非常重要。
如果您对他们在商务活动中如何谈论安全性感兴趣,请观看视频。演示中表达了另一个有趣的想法:不需要强迫人工智能执行只有人才能完成的任务,在这些情况中,事实的作用要小于情感,例如道德问题。 反之亦然:需要严格遵守事实的决策通常应该留给(大概)不太容易出错的机器。 关于是否信任网络上任何信息源的决定应基于信誉。 可以将类似的想法应用于网络事件的问题:是的,迟早会在每个人身上发生,但是对于那些保护客户数据的工作胜过黑客的后果的组织来说,这是一个优势。
机器学习算法的理论攻击但是,RSA仍然显示出发现新问题的人与提供解决方案的人之间的行业关系是多么复杂。 除了几项协议性演讲外,会议上最有趣的演讲如果描绘了未来,则显得有些不太乐观。 值得注意的是Google发言人Nicolas Carlini的演讲。 他从2017年的这个已经很经典的例子开始总结了机器学习算法攻击的经验:
猫的原始图像对人类完全不可见,但是识别算法以完全不同的方式对这张图片进行分类。 此修改带来什么威胁? 另一个不是最新的但内容丰富的示例:
道路标志似乎遭受了一些破坏,但对于一个人来说,这是可以理解的。 汽车可以将带有这种变化的标志识别为完全不同的标志-具有有关速度限制的信息,并且不会在交叉路口停下来。 更有趣的是:
可以在声音中应用相同的方法,这已在实践中得到了证明。 在第一个示例中,语音识别系统“识别”音乐片段中的文本。 第二,对录音的无形操纵导致了对完全不同的单词集的识别(如图所示)。 在第三种情况下,文本被识别,完全摆脱了毫无意义的噪音。 这是一个有趣的情况:在某个时候,人们及其数字助理开始看到和听到完全不同的事物。 最后,机器学习算法可以在理论上进一步显示使用它们的个人数据。 最简单和最容易理解的例子是预测打字系统,又名“该死的T9”。
医疗器械安全最近,在过时的软件和缺乏IT开发预算的领域中讨论了医学安全性。 结果,
网络攻击的后果比平时更为严重,我们正在谈论非常敏感的患者数据的丢失或泄漏。 在RSA会议上,Check Point软件专家
分享了对以色列一家真正医院的计算机网络的研究结果。 在大多数医疗机构中,计算机网络没有划分区域,因此很容易找到专用设备,在这种情况下,是超声设备。
有关在设备的计算机部分中搜索漏洞的故事很短。 Ultrasound正在运行Windows 2000,因此发现对该操作系统中的关键漏洞之一的利用并不难。 研究人员可以访问带有患者姓名的图像档案,可以编辑此信息,并有机会激活勒索软件木马。 该设备制造商表示,更多现代模型是基于现代软件构建的,软件更新定期在该处交付(但并非已安装),但是更新医疗设备要花费(大量)金钱,如果旧设备正常工作又有什么意义呢?
对医疗机构的建议很明确:对本地网络进行分段,将存储私有数据的设备与所有其他设备分开。 有趣的是,相反,对于医学上机器学习技术的发展,需要尽可能广泛地访问患者数据-用于训练算法。
免责声明:本摘要中表达的观点可能并不总是与卡巴斯基实验室的官方立场相符。 亲爱的编辑们通常建议以健康的怀疑态度对待任何观点。