Tudo o que você precisa saber sobre IA em minutos



Congratulo-me com os leitores de Habr. Sua atenção é convidada para a tradução do artigo "Tudo o que você precisa saber sobre IA - em menos de 8 minutos". . O conteúdo é destinado a pessoas que não estão familiarizadas com o campo da IA ​​e que desejam ter uma idéia geral sobre o assunto, e, talvez, se aprofundar em qualquer um de seus ramos específicos.

Às vezes, é mais útil saber um pouco sobre tudo (pelo menos para iniciantes que tentam navegar em áreas técnicas populares) do que saber muito sobre uma coisa.

Muitas pessoas pensam que estão um pouco familiarizadas com a IA. Mas essa área é tão jovem e cresce tão rápido que surtos ocorrem quase todos os dias. Há tanta coisa para descobrir neste campo científico que especialistas de outros campos podem se juntar rapidamente à pesquisa de IA e obter resultados significativos.

Este artigo é apenas para eles. Eu me propus a meta de criar um pequeno material de referência que permita que pessoas com formação técnica compreendam rapidamente a terminologia e as ferramentas usadas para desenvolver a IA. Espero que este material seja útil para a maioria das pessoas interessadas em IA que não são especialistas neste campo.

1. Introdução


Inteligência artificial (IA), aprendizado de máquina e redes neurais são termos usados ​​para descrever tecnologias poderosas baseadas no aprendizado de máquina que podem resolver muitos problemas do mundo real.

Enquanto pensa, toma decisões, etc. Comparados às capacidades do cérebro humano em máquinas, eles estão longe de serem ideais (eles não são ideais, é claro, em humanos); recentemente, várias descobertas importantes foram feitas no campo das tecnologias de IA e algoritmos relacionados. Um papel importante é desempenhado pelo crescente número de grandes amostras de diversos dados disponíveis para o treinamento de IA.

O campo da IA ​​se cruza com muitas outras áreas, incluindo matemática, estatística, teoria das probabilidades, física, processamento de sinais, aprendizado de máquina, visão computacional, psicologia, linguística e a ciência do cérebro. Questões relacionadas à responsabilidade social e à ética da criação de IA atraem as pessoas interessadas na filosofia.

A motivação para o desenvolvimento da tecnologia de IA é que as tarefas que dependem de muitos fatores variáveis ​​exigem soluções muito complexas, difíceis de entender e difíceis de algoritmizar manualmente.

As esperanças de empresas, pesquisadores e pessoas comuns de aprendizado de máquina estão crescendo para obter soluções para problemas que não exigem que uma pessoa descreva algoritmos específicos. Muita atenção é dada à abordagem da caixa preta. A programação dos algoritmos usados ​​para modelar e resolver problemas associados a grandes quantidades de dados leva muito tempo dos desenvolvedores. Mesmo quando conseguimos escrever código que processa uma grande quantidade de dados, muitas vezes acaba sendo muito complicado, difícil de manter e difícil de testar (devido à necessidade de usar uma grande quantidade de dados, mesmo para testes).

Tecnologias modernas de aprendizado de máquina e IA, juntamente com dados de "treinamento" selecionados e preparados corretamente para sistemas, podem nos permitir ensinar aos computadores como programar para nós.



Revisão


Inteligência - a capacidade de perceber informações e salvá-las como conhecimento para criar comportamento adaptativo em um ambiente ou contexto

Essa definição de inteligência da Wikipedia (em inglês) pode ser aplicada ao cérebro orgânico e à máquina. A presença da inteligência não implica a presença da consciência . Esse é um equívoco comum trazido ao mundo pelos escritores de ficção científica.

Tente pesquisar na Internet exemplos de IA - e você provavelmente obterá pelo menos um link para o IBM Watson, que usa o algoritmo de aprendizado de máquina, que ficou famoso depois de vencer um game show chamado “Jeopardy” em 2011. Desde então, o algoritmo passou por algumas alterações e foi usado em como modelo para muitas aplicações comerciais diferentes. Apple, Amazon e Google estão trabalhando ativamente para criar sistemas semelhantes em nossas casas e bolsos.

O processamento de linguagem natural e o reconhecimento de fala foram os primeiros exemplos do uso comercial do aprendizado de máquina. A seguir, apareceram tarefas, outras tarefas de automação de reconhecimento (texto, áudio, imagens, vídeo, rostos, etc.). A gama de aplicações dessas tecnologias está em constante crescimento e inclui veículos não tripulados, diagnósticos médicos, jogos de computador, mecanismos de pesquisa, filtros de spam, controle de crimes, marketing, controle de robôs, visão computacional, transporte, reconhecimento de música e muito mais.

A IA está tão fortemente incorporada nas tecnologias modernas que usamos que muitos nem a consideram uma "AI", ou seja, não a separam das tecnologias convencionais de computador. Pergunte a qualquer transeunte se há inteligência artificial em seu smartphone e ele provavelmente responderá: "Não". Mas os algoritmos de IA estão em toda parte: da previsão do texto digitado ao foco automático da câmera. Muitos acreditam que a IA deve aparecer no futuro. Mas ele apareceu há algum tempo e já está aqui.

O termo "IA" é bastante generalizado. A maioria das pesquisas está agora focada em um campo mais restrito de redes neurais e aprendizado profundo.

Como nosso cérebro funciona


O cérebro humano é um computador complexo de carbono que, segundo estimativas aproximadas, realiza um bilhão de bilhões de operações por segundo (1000 petaflops), enquanto consome 20 watts de energia. Um supercomputador chinês chamado "Tianhe-2" (o mais rápido do mundo no momento da redação deste texto) realiza 33.860 trilhões de operações por segundo (33,86 petaflops) e consome 1.600.000 watts (17,6 megawatts). Temos que fazer uma certa quantidade de trabalho antes que nossos computadores de silício possam se comparar com os de carbono formados como resultado da evolução.

Uma descrição precisa do mecanismo usado por nosso cérebro para "pensar" é objeto de discussões e pesquisas adicionais (eu pessoalmente gosto da teoria de que o trabalho do cérebro está associado a efeitos quânticos, mas esse é um tópico para outro artigo). No entanto, o mecanismo de trabalho de partes do cérebro geralmente é modelado usando o conceito de neurônios e redes neurais. Estima-se que o cérebro contenha aproximadamente 100 bilhões de neurônios.



Os neurônios interagem entre si usando canais especiais que lhes permitem trocar informações. Os sinais de neurônios individuais são pesados ​​e combinados entre si antes de ativar outros neurônios. Esse processamento de mensagens transmitidas, a combinação e a ativação de outros neurônios é repetida em diferentes camadas do cérebro. Dado que existem 100 bilhões de neurônios em nosso cérebro, a totalidade das combinações ponderadas desses sinais é bastante complicada. E isso é o mínimo.

Mas isso não termina aí. Cada neurônio aplica uma função, ou transformação, a sinais de entrada ponderados antes de verificar se seu limite de ativação é atingido. A conversão do sinal de entrada pode ser linear ou não linear.

Inicialmente, os sinais de entrada provêm de uma variedade de fontes: nossos sentidos, meios de monitoramento interno do funcionamento do corpo (nível de oxigênio no sangue, conteúdo estomacal etc.) e outros. Um único neurônio pode receber centenas de milhares de sinais de entrada antes de decidir como responder.

O pensamento (ou processamento de informações) e as instruções resultantes dele, transmitidos aos nossos músculos e outros órgãos, são o resultado da conversão e transmissão de sinais de entrada entre neurônios de diferentes camadas da rede neural. Mas as redes neurais no cérebro podem mudar e ser atualizadas, incluindo alterações no algoritmo para ponderar os sinais transmitidos entre os neurônios. Isso se deve ao aprendizado e à experiência.

Este modelo do cérebro humano foi usado como modelo para reproduzir as capacidades do cérebro na simulação por computador - uma rede neural artificial.

Redes Neurais Artificiais (RNAs)


Redes neurais artificiais são modelos matemáticos criados por analogia com redes neurais biológicas. As RNAs são capazes de modelar e processar relacionamentos não lineares entre sinais de entrada e saída. A ponderação adaptativa dos sinais entre neurônios artificiais é alcançada graças a um algoritmo de aprendizado que lê os dados observados e tenta melhorar os resultados de seu processamento.



Para melhorar a operação das RNAs, várias técnicas de otimização são usadas. A otimização é considerada bem-sucedida se a RNA puder resolver a tarefa em um tempo que não exceda a estrutura estabelecida (os prazos, é claro, variam de tarefa para tarefa).

A RNA é modelada usando várias camadas de neurônios. A estrutura dessas camadas é chamada de arquitetura de modelo. Os neurônios são unidades computacionais separadas que podem receber dados de entrada e aplicar alguma função matemática a eles para determinar se os dados serão transferidos ainda mais.

Em um modelo simples de três camadas, a primeira camada é uma camada de entrada, seguida por uma camada oculta e, em seguida, uma camada de saída. Cada camada contém pelo menos um neurônio.

Como a estrutura do modelo é complicada pelo aumento do número de camadas e neurônios, aumenta o potencial para resolver problemas de RNA. No entanto, se o modelo for muito "grande" para uma determinada tarefa, ele não poderá ser otimizado para o nível desejado. Esse fenômeno é chamado de super adaptação .

A arquitetura, configuração e seleção de algoritmos de processamento de dados são os principais componentes da construção da RNA. Todos esses componentes determinam o desempenho e o desempenho geral do modelo.

Os modelos são frequentemente caracterizados pela chamada função de ativação . É usado para converter a entrada ponderada de um neurônio em sua saída (se um neurônio decidir transferir mais dados, isso será chamado de ativação). Existem muitas transformações diferentes que podem ser usadas como funções de ativação.

As RNAs são um meio poderoso de resolver problemas. No entanto, embora o modelo matemático de um pequeno número de neurônios seja bastante simples, o modelo de uma rede neural com um aumento no número de suas partes constituintes se torna bastante confuso. Por esse motivo, o uso de RNA é chamado de abordagem de caixa preta. A escolha da RNA para resolver o problema deve ser cuidadosamente considerada, pois em muitos casos a solução final resultante não pode ser desmontada e analisada por que ela se tornou tal.



Aprendizagem profunda


O termo aprendizado profundo é usado para descrever redes neurais e os algoritmos usados ​​nelas que recebem dados brutos (dos quais algumas informações úteis são necessárias). Esses dados são processados ​​passando pelas camadas da rede neural para obter a saída desejada.

O aprendizado não supervisionado é uma área na qual as técnicas de aprendizado profundo funcionam muito bem. Uma RNA corretamente configurada é capaz de determinar automaticamente os principais recursos dos dados de entrada (texto, imagens ou outros dados) e obter um resultado útil de seu processamento. Sem treinamento aprofundado, a busca por informações importantes geralmente recai sobre os ombros de um programador que desenvolve um sistema para processá-las. O modelo de aprendizado profundo, por si só, é capaz de encontrar uma maneira de processar dados que permite extrair informações úteis deles. Quando o sistema é treinado (ou seja, encontra a maneira exata de extrair informações úteis dos dados de entrada), os requisitos de potência, memória e energia de computação para manter o modelo são reduzidos.

Simplificando, os algoritmos de aprendizado permitem o uso de dados especialmente preparados para "treinar" um programa para executar uma tarefa específica.

O aprendizado profundo é usado para resolver uma ampla gama de problemas e é considerado uma das tecnologias inovadoras de IA. Existem também outros tipos de treinamento, como aprendizado supervisionado e aprendizado semi-supervisionado , que se distinguem pela introdução de controle humano adicional sobre os resultados intermediários do treinamento da rede neural no processamento de dados (ajudando a determinar se na direção certa sistema móvel).

Aprendizado de sombra ( shadow learning ) - um termo usado para descrever uma forma simplificada de aprendizado profundo, em que a busca pelos principais recursos dos dados é precedida pelo processamento por uma pessoa e pela inserção de informações específicas para o campo ao qual esses dados se relacionam. Tais modelos são mais "transparentes" (no sentido de obter resultados) e de alto desempenho, devido ao aumento do tempo investido no design do sistema.

Conclusão


A IA é uma poderosa ferramenta de processamento de dados e pode encontrar soluções para problemas complexos mais rapidamente do que algoritmos tradicionais escritos por programadores. RNAs e técnicas de aprendizado profundo podem ajudar a resolver vários problemas diversos. A desvantagem é que os modelos mais otimizados costumam funcionar como "caixas pretas", impossibilitando o estudo das razões para a escolha de uma ou outra solução. Esse fato pode levar a questões éticas relacionadas à transparência das informações.

Source: https://habr.com/ru/post/pt416889/


All Articles