数字空间中的伦理-国际数字关系的基本规则

图片

前几天,在去年10月于布鲁塞尔举行的ICDPPD 2018大会(国际数据保护和隐私专员会议)上发布了新闻稿,代号为``辩论伦理''。

ICDPPD 2018是讨论个人数据保护领域法律的国际平台。 去年,在GDPR生效的背景下,该活动达到了前所未有的规模-超过85个参与国和1,100名注册代表, 蒂姆·库克亲自参加了欧洲议会的开幕仪式,实际上参加会议的还有马克·扎克伯格和西班牙国王菲利普四世。

1.为什么监管者会议吸引了如此多的注意力,使蒂姆·库克(Tim Cook)这样的客人亲自来参加会议?
2.国际社会以前在哪里?

本文包含对会议的简短描述,以及对所讨论主题为何如此重要的个人看法。

文章内部:
  • 1. ICDPPD会议,创建历史和任务
  • 2.数字道德或会议的意义
  • 3.会议结果
  • 4.同时,在俄罗斯联邦
  • 而不是结论



1.关于会议
自1979年以来,ICDPPD会议已经举行了40次(!)。 这样做首先是对全球经济增长的步伐和信息技术挑战的一种反应,但是距离越远,技术方面被更多的全球性问题所取代。 自从第21届大会(在香港)以来,会议已具有全球性,并已成为在数字领域建立国际协议的平台。

会议的任务是召集所有参与国家层面数据保护的监管组织。 但实际上,该事件不再是监管机构的会议,而是获得了与立法者进行业务谈判的平台(以及科学家,哲学家和律师)的更广泛形式。

此次会议共有来自78个国家的125个经过认可的组织,其中俄罗斯未列入其中。 在过去三个会议的观察员名单中,我们将Roskomnadzor列入名单。 有趣的是,注册成员被称为管理局,主要从事数据保护,在我们的情况下,这是监视,但不是重点。

问题1为什么监管机构会议吸引了如此多的注意力,以至于蒂姆·库克(Tim Cook)这样的客人亲自参加了会议?

部分原因是这是周年会议。
部分原因是GDPR于去年生效(Habr已经对此法律进行了很多讨论,例如, 此处此处此处 )。 顺便说一句,正是由于这项关于保护个人数据的示范法,第40届会议在欧盟首都举行。
部分原因是世界变化的临界质量已达到极限-数字行为这一主题占据了世界哲学思想(许多科学家亲自出席了会议)。
主要是因为当今数字空间的主要参与者不是国家。 这些公司在互联网上提供服务:Facebook,Google,Amazon等。 有一天,他们将邀请州监管机构参加会议,反之亦然,而这一天不远了。 例如,众所周知,扎克伯格积极参与了GDPR的讨论,试图说服监管机构将数据主体的年龄降低到14岁,并且监管机构试图找到实现这一目标的方法。

问题2每个人都去过哪里? 真的只有在GDPR出现之后,才出现了保护个人数据的国际标准吗?

当然不是 对话进行了很长时间,最初的法案,协议和法规于90年代初通过。 2009年,在马德里的一次会议上,制定了保护个人数据的基本国际原则 ,该原则通常会重复GDPR的基本原则。

所不同的是,在GDPR之前,没有机制可以评估对这些原则的正确遵守情况以及对违反这些原则的人的惩罚。 一旦对与数据有关的善意原则进行了实质性评估并在官方一级得到保证,就确定了数据保护的黄金标准。

现在,在国际舞台上,在联合国组织名单中,没有一个处理数据安全或“数字经济”的普遍机构。 因此,ICDPPD首次承担了国际( 欧洲 )监管机构的职责。

因此,第40届ICDPPD数据保护会议专门针对数字道德。

2.数字道德或会议的意义




伦理学(希腊伦理学-风俗,性格),研究道德的哲学学科。

在礼拜堂上,有很多关于现代伦理学发展的讨论。 我们生活在一个奇妙的时代,一切都在变化,人们所困扰的问题也是如此。 我们谈论的是开源道德, 免费复制道德, 机器人机器人的道德。

粗略地说,随着经济新领域的发展,人类关系的新领域出现了,需要正式和非正式的监管。
一个简单的类比是汽车交通。 有官方的交通规则,但有“概念”和驾驶员礼貌。
根据官方的交通规则,驾驶员不应在道路上造成紧急情况。 根据非官方的概念,如果驾驶员在路上遇到紧急情况,他还会发出紧急信号,从后面向驾驶员发出警报。

正是由于这样的通用规则,数字世界中行为的特殊基本规则,布鲁塞尔才开始进行对话。

作为对该主题的介绍,组织者向Erzhe致敬,并以漫画书的形式进行了主要讲义, 漫画非常可爱,而且并非没有幽默感。

图片

简要介绍手册:

the在普通世界中,有些法律是根据道德和道德规范起草的。 但是,越远,进入数字领域的生活就越多,在这个领域中,普遍伦理的概念仍然缺失。

在数字世界中,人们可以做物理上不可能做的事情。 (全面监视,配置文件,上下文广告)。 此外,您的数据需要花费金钱。 大钱 公司准备免费提供任何服务,只是为了收集数据。

互联网知道一切并记住一切。 这就带来了新的风险:机密性丧失,欺诈和错误信息的风险,极端主义蔓延的风险,政府监督,对大公司服务的垄断(谷歌,facebook)

您可以尝试将旧的道德规则适应新的现实,例如:像对待他人的数据一样对待他人的数据。 但是除此之外,还需要新的概念(我们不仅需要人们的道德行为,还需要机器和软件的道德行为)。

挑战是品尝技术进步的成果,同时最大程度地减少问题。 我们需要制定正确的法律,但是除了法律之外,我们还需要道德规范。

3.会议结果

小组讨论中讨论的问题几乎是夸夸其谈:
-技术的设计是否应该使人们受益?
-伦理与社会
-技术如何改变我们的思维,行为,互动
-如何灌输道德,谁负责?

显然,这样的问题表达方式可以分散讨论,并且在几个小时的讨论中没有人期望得到正确的答案。 开放对话的象征很重要,所有参与者(阅读:大企业-Facebook,微软,苹果等)都准备好进行联系。 作为外部观察者,在我看来有时在台上有一场暗战:监管者指责全球服务操纵信息,而企业则处于摆姿势-如果不是为我们的服务,您将不会坐在这里,也没有什么可讨论的。

在这方面,出现问题3
- 要求公司免费提供服务而不提供任何回报是否合乎道德?

正如亚伦·拉尼尔(Yaron Lanier)在电话会议中所说的那样: 如果汽车不是卖钱而是提供免费服务,那么它们只会沿着给定的路线经过支付给开发商广告的商店。



总体而言,与会人员和组织者都认为会议不仅仅成功。 六分之一的一天分配给商务,免费访客和新闻界;其余的工作组和委员会则为我们的矩阵制定了新规则。
在通过的决议中:

人工智能领域的伦理声明与数据保护 。 一些要点:
  • 实际上,在此声明中,立法者将GDPR第二章先前规定的原则应用于人工智能:人工智能设计中的隐私权,限制了使用人工智能处理数据的目的,用户安全,操作透明性,数据处理中的非歧视性
  • 有趣的是,在AI的发展中,不仅要考虑对个人用户的保护,还要考虑对用户群体的保护:“考虑到……对群体和整个社会的集体影响”
  • 该决议将“ 道德规范 ”一词包含在内,这在以前的有关个人数据保护的法律中没有。 从本质上讲,这意味着AI符合数据保护的基本原则。
  • 阅读时,也会让人感到立法者计划在处理个人数据时引入某种促进集体责任和共同责任的区块链-数据处理链接中的每个人应对他们使用的数据负责。
  • 最后,立法者显然感到有更多了解AI的愿望-计划投资于一个可以理解的AI:“投资于可解释人工智能的公共和私人科学研究”


在线教育法规声明
-简而言之,在线教育必须符合GDPR的原则

将ICDPPC会议发展成为一个独立组织的计划也已正式确定

接受文件的完整列表

那俄罗斯联邦呢
正如我上文所述,俄罗斯在会议上只是处于观察员地位,但我们仍然是世界关系的参与者,我们迟早将不得不接受这些决议。 GDPR已经影响我们作为欧洲关系参与者(通过与欧盟公民互动或处理其数据)。

此外,我们有自己的2006年个人数据保护法 ,并更新了责任基础 。 没错,罚款,轻率-一家公司75,000卢布是多少?

关于数字法律的普遍漩涡将在多长时间内将俄罗斯拖入其自身,以及我们要投入多少钱来加入全球保护数据运动,我确实感到非常痛苦。 也许再过十年,我们将悄悄地出售数据库。

为了强制公司建立处理个人信息的明确规则,进行定期监视-恐怕明天不会发生,但我想跟上。

而不是结论

想象不到100年前,国际法的规则是完全不同的,例如,它允许某些国家拥有殖民地甚至奴隶制。 宣战,交换战俘,分界线规则和使用(联合国)使用核武器的原则-所有这些曾经是相互表达的,并且是第一批相互同意的国家第一次被印在纸上。 随后,其他成员加入了协议。

在这种背景下,数字世界中的新行为规则看起来相当合法,不仅及时,而且甚至是迟来的-我们从事数字经济已有很长时间了, 全球最大的公司是处理行星规模数据的公司。 此外,整个数字经济受国际经济合作条约的管辖。 我认为这是一个全新的空间。

GDPR可以与长期形成的风暴和雷声相提并论,它在远处隆隆响起,逐渐拾起声音,最后,信任在我们头顶隆隆响起,预示着世界关系的转变和国际法的新纪元。 在这个时代
数字伦理从讨论领域转移到国际条约的页面。

Source: https://habr.com/ru/post/zh-CN439602/


All Articles