Introdução

Introdução#

Redes Neurais Artificiais (RNAs) são modelos matemáticos/computacionais que buscam simular a estrutura e a função do cérebro para processar dados e realizar tarefas complexas. As pesquisas nesta área começaram na década de 1940, quando foram desenvolvidas as idéias iniciais de criar modelos computacionais para simular redes neurais. Na década seguinte, foi implementado o primeiro modelo matemático capaz de simular um neurônio, o perceptron. Este evento gerou uma grande comoção e iniciou uma onda de investimentos na área.

Porém, com o tempo, pesquisadores encontraram dificuldades em cumprir as promessas de utilizar estes modelos para resolver problemas não-lineares. Os modelos iniciais de RNAs foram criticados por serem capazes de resolver apenas problemas lineares, e não havia ainda uma forma eficiente de criar modelos mais complexos. Isto resultou no primeiro inverno de Inteligência Artificial entre as décadas de 1970 e 1980, quando havia muito pouco investimento na área.

Pesquisadores que continuaram estudando esta área conseguiram desenvolver modelos maiores, agregando diversos perceptrons e criando redes complexas, capazes de processar dados não-lineares. Isto foi possível principalmente pelo desenvolvimento do algorithmo de backpropagration, que permitiu treinar modelos maiores de forma eficiente. Porém, realizar o treinamento de modelos muito grandes se tornou uma tarefa computacionalmente muito complexa, e outros modelos computacionais mais eficientes começaram a ser desenvolvidos na área de machine learning entre as décadas de 1990 e 2000.

Anos depois, entre o final da década de 2000 e início de 2010, modelos cada vez maiores e mais eficientes foram desenvolvidos, graças a avanços em técnicas e a uma maior disponibilidade de poder computacional. Finalmente, em 2012, a RNA AlexNet foi vencedora de uma famosa competição de Visão Computacional (ImageNet) por uma distância considerável em relação às outras técnicas clássicas de visão computacional. Isto trouxe muito otimismo no uso de RNAs, resultando em novas pesquisas e em rápidos avanços na área de visão computacional.

Consequentemente, novas arquiteturas foram desenvolvidos para resolver outros problemas de engenharia. Em 2017, foi desenvolvido o modelo transformer, que trouxe um rápido avanço na área de processamento de linguagem natural. Tal modelo também foi utilizado em outras áreas, incluindo visão computacional, o que trouxe ainda mais avanços, como Inteligência Artificial Generativa, capaz de conversar, gerar imagens e vídeos.

Hoje em dia, estamos em uma fase de rápida transformação graças a esta tecnologia. Utilizamos chatbots que nos auxiliam em nosso trabalho, nos livram de tarefas repetitivas, e conseguem inclusive realizar trabalho criativo. Nosso objetivo nessa disciplina é estudar os fundamentos e o estado da arte de redes neurais para compreender como utilizar esta tecnologia para resolver problemas complexos de engenharia.