Pendant 60 ans, la cybernétique n'a pas pu comprendre pleinement le thème de la similitude des personnes et des robots. Ils ont même proposé un
critère de Turing farfelu et trop
élaboré : «nous pouvons supposer qu'une véritable IA est créée s'il est impossible de distinguer un bot de discussion d'une personne en communication réseau.»
Ils manquaient tout simplement d'une véritable réflexion juridique positive. Pourquoi se demander si le robot ressemble à une personne, comment vérifier s'il ressemble à quoi faire s'il ressemble.
Il suffit de lui interdire de faire semblant d'être un homme - et c'est tout, l'un des problèmes les plus complexes de l'intelligence artificielle est résolu avec élégance et simplicité.
Le 28 septembre, la Californie a adopté une loi interdisant les chatbots qui encouragent l'achat de biens et services, ou promeuvent les partis politiques si ces chatbots n'informent pas leurs interlocuteurs qu'ils ne sont pas humains.
Extrait de la
loi :
En Californie, il est illégal d'utiliser un bot pour communiquer ou interagir sur Internet avec une personne dans l'intention de l'induire en erreur sur l'identité artificielle du bot afin de tromper délibérément une personne en ce qui concerne l'essence du message visant à encourager l'achat ou la vente de biens ou de services dans une transaction commerciale ou d'influencer le vote sur l'élection. Une personne utilisant un bot n'est pas responsable conformément au présent article si elle révèle qu'il s'agit d'un bot.
Clarification:
La divulgation requise par cette section doit être claire, visible et raisonnablement compilée pour informer les personnes avec lesquelles le bot communique ou interagit qu'il s'agit d'un bot.
Cependant, la loi ne s'applique qu'aux sites Internet et aux réseaux sociaux avec une base d'utilisateurs de 10 millions de citoyens américains.
D'après notre expérience (et nous,
Nanosemantics, avons créé plus de 70 robots de chat pour une utilisation en entreprise), dans une conversation, le robot de chat ne parvient jamais à faire semblant d'être humain pendant longtemps, et lorsque la fraude est révélée, une réaction très négative du client suit toujours.
Et, curieusement, l'inverse est également vrai: si le bot de chat avertit immédiatement qu'il ne s'agit que d'une personnalité virtuelle, une personne l'anime encore très facilement et lui attribue des propriétés humaines.
Cependant, maintenant, en vertu de la nouvelle loi, jusqu'au 1er juillet 2019, les robots de discussion trop raisonnables aux États-Unis devront faire un cumul.
Fait intéressant, comme toujours, la Russie est à blâmer pour cela: il semble que la loi soit la conséquence de déclarations de responsables américains qu'aux États-Unis, lors de l'élection présidentielle de 2016, il y
avait beaucoup de robots de discussion russes sur Internet qui ont laissé des commentaires contre Hillary Clinton et à l'appui de l'atout.
Que la nouvelle loi soit bonne ou mauvaise, mais maintenant quand vous rencontrez une entité intelligente inconnue, vous pouvez exiger haut et fort, comme dans un conte de fées: "Vous êtes un homme ou un esprit, soyez appelé!" Et l'adversaire devra indiquer son statut dans l'espace mental. À moins, bien sûr, qu'il ne soit pas un démon maléfique qui cache son essence, qui ne se soucie pas de la loi californienne. Ce qui, bien sûr, est difficile à croire - tout le monde respecte les lois de l'État de Californie.