As melhores mentes do planeta: inteligência artificial pode destruir a humanidade
Na lista de cenários do dia do juízo final, os robôs assassinos inteligentes que podem varrer a humanidade da face da Terra são bastante altos. E na comunidade científica, mais e mais especialistas em inteligência artificial (IA) concordam que as pessoas eventualmente criarão inteligência artificial que se tornará mais inteligente do que elas. Um momento chamado singularidade pode criar uma utopia na qual os robôs trabalham e as pessoas relaxam no céu. Ou levará à destruição de todas as formas de vida que a IA considera concorrentes pelo controle do planeta - ou seja, nós. Stephen Hawkingsempre conversamos sobre a última opção e, recentemente, lembrei disso em uma entrevista à BBC. Sugerimos que você se familiarize com alguns comentários de Hawking e outros gênios que acreditam que a IA pode se tornar o pôr do sol da humanidade .Stephen Hawking

O desenvolvimento de uma inteligência artificial completa pode pressagiar o começo do fim para as pessoas. Isso começará por conta própria e mudará em um ritmo frenético. Pessoas limitadas pela lenta evolução biológica não conseguirão resistir e ficarão lotadas ”, diz um físico mundialmente famoso. Hawking há muito tempo apresenta sua visão apocalíptica.
Em resposta a um filme sobre singularidade com “Excellence”, de Johnny Depp, o cientista criticou os pesquisadores por não fazerem nada para proteger a humanidade da IA: “Se a civilização alienígena superior nos enviasse a mensagem“ Vamos chegar daqui a alguns séculos ”, respondidas, eles dizem, bem, ligue-nos, quando você chegar aqui, as portas estarão abertas? Provavelmente não, mas é mais ou menos o que acontece com a IA. ”Elon Musk
Conhecido por suas empresas de tecnologia de ponta, como Tesla e SpaceX , Musk não é fã de inteligência artificial . Em uma conferência no MIT em outubro, ele comparou o uso da IA a "chamar o demônio" e chamou de a maior e real ameaça à humanidade. Ele também postou um tweet de que a IA poderia ser mais perigosa do que armas nucleares. Musk pediu a criação de regulamentação nacional e internacional do desenvolvimento da IA.Nick Bostrom
O filósofo sueco é o diretor do Institute for Future Humanity da Universidade de Oxford, onde passou muito tempo pensando no resultado potencial de uma singularidade. Em seu novo livro Superintellig, Bostrom escreve que, assim que as máquinas superam a inteligência humana, elas podem se mobilizar e decidir destruir as pessoas com velocidade da luz usando uma variedade de estratégias (desenvolvimento discreto de um patógeno, atraindo as pessoas para o lado ou simplesmente devido à força bruta). O mundo do futuro se tornará cada vez mais tecnológico e complexo, mas não veremos isso. “Uma sociedade de milagre econômico e inclinação tecnológica na qual ninguém estará. Disneyland sem filhos ".James barrat
Barrat é um escritor e documentário que, em seu novo livro, Our Latest Invention: Artificial Intelligence and the End of the Human Age, apresenta entrevistas com filósofos e pesquisadores de IA. Ele acredita que as criaturas inteligentes, por natureza, coletam recursos e realizam tarefas, o que, sem dúvida, tornará os concorrentes uma IA e pessoas super-inteligentes - os principais consumidores de recursos do planeta. Isso significa que mesmo uma máquina que deveria jogar xadrez ou executar funções simples pode pensar em outra coisa, se for inteligente o suficiente. "Sem instruções de restrição cuidadosamente pensadas, um sistema proposital autoconsciente e auto-aperfeiçoador para atingir seus objetivos progredirá da maneira que nem podemos pensar por nós mesmos", escreve o autor do livro.Asa de Varnor
Como matemático e escritor de ficção científica, Vindg cunhou o termo “singularidade” para descrever o ponto de inflexão no qual as máquinas se tornarão mais inteligentes que os humanos. Ele vê a singularidade como irreversível, mesmo que as regras internacionais controlem o desenvolvimento da inteligência artificial. "As vantagens dos concorrentes sobre automação - econômica, militar e até cultural - são tão atraentes que as leis que proíbem tais coisas apenas estimulam o uso por outras pessoas", escreve o autor em seu ensaio de 1999. Mas o que acontece quando atingimos uma singularidade? "A destruição física da raça humana será a única opção".Source: https://habr.com/ru/post/pt381157/
All Articles