Elon Musk financia grupos de pesquisa sobre inteligência artificial é seguro
Pôster promocional do filme Terminator: GenesisNa semana passada, a organização privada sem fins lucrativos Future of Life Institute (FLI), com sede em Boston, EUA, anunciou que recebeu uma rodada significativa de financiamento de US $ 10 milhões. A parte principal da doação de US $ 7 milhões foi feita por Elon Musk, o restante do dinheiro foi transferido por outra organização sem fins lucrativos, o Open Philanthropy Project. A principal ocupação da FLI é encontrar grupos de pesquisa especializados que trabalhem no campo da inteligência artificial e seu financiamento. Um dos objetivos estabelecidos pelos cientistas que recebem doações da FLI é desenvolver uma “mente computacional” que seja segura para a humanidade, o que não levaria a uma catástrofe global no futuro.Milhões de dólares do diretor da SpaceX e do grupo Open Philanthropy Project serão divididos entre si por 37 grupos de pesquisa que trabalham em universidades conhecidas e se provaram. Listas do BusinessInsideralguns desses projetos científicos. Por exemplo, um grupo conjunto de cientistas das universidades de Berkeley e Oakford está engajado na criação de algoritmos treinados nas preferências humanas, que no futuro ajudariam a inteligência artificial a se comportar "como um ser humano". Os funcionários da Duke University (EUA, Carolina do Norte) estabelecem uma meta mais ambiciosa: desejam desenvolver um sistema de inteligência artificial que possa tomar decisões baseadas na "moralidade humana". Na Universidade de Denver, eles estão realmente trabalhando em maneiras de combater a Skynet, lidando com a possível perda de controle sobre armas robóticas.No final de novembro do ano passado, Elon Musk observouem uma discussão pública na Internet sobre a segurança da inteligência artificial. A julgar pelas palavras do chefe da SpaceX, ele desconfia da capacidade dos computadores de pensar e prevê o surgimento de "algo muito perigoso dentro de 5 a 10 anos", significando apenas a IA como um perigo. Por algum motivo desconhecido, o comentário de Mask desapareceu alguns minutos após a publicação, mas outros usuários do Edge.org conseguiram salvá-lo como uma captura de tela. O porta-voz da Mask prometeu no futuro apresentar a opinião oficial de seu chefe sobre esse assunto, mas isso, aparentemente, ainda não aconteceu.Deve-se notar que Musk realmente segue a opinião do famoso cientista britânico Stephen Hawking, que ainda falou antesda seguinte forma: “Todas essas conquistas [no desenvolvimento da inteligência artificial] desaparecem no contexto do que nos espera nas próximas décadas. A criação bem-sucedida de inteligência artificial será o maior evento da história da humanidade. Infelizmente, pode ser o último se não aprendermos a evitar riscos. ” Hawking acredita que existem muito poucos trabalhos científicos sérios dedicados ao estudo da segurança da IA, e há poucas organizações científicas que poderiam fazer isso. Curiosamente, Hawking mencionou a FLI entre essas organizações. Se existe alguma conexão entre Stephen Hawking e Elon Musk é confiável.Há um ponto de vista alternativo dos cientistas, no entanto, não com um nome tão grande quanto o professor Hawking. Eles acreditam que a questão de tirar a inteligência artificial do controle é mais um tópico para filmes de ficção científica do que para preocupações sérias. Leia seus contra-argumentos aqui .Source: https://habr.com/ru/post/pt381497/
All Articles