Uma breve história da Inteligência Artificial

“E agora, ó Musas, contem-me quem eram essas pessoas e de que terra vieram.”
– Herodotus –

Maurício Pinheiro

Bem-vindo à nossa breve história da Inteligência Artificial! Exploraremos sua história desde os primórdios no século XIX, destacando marcos importantes e conquistas significativas. Nosso objetivo é oferecer uma compreensão da evolução da IA e seu papel atual em nossas vidas.


Século XIX:

Ada Lovelace escreveu sobre a possibilidade de máquinas realizarem tarefas além do cálculo numérico. Sua colaboração com Charles Babbage no projeto da Máquina Analítica a torna uma das primeiras pessoas a conceber a ideia de um computador programável.

O filósofo e escritor Samuel Butler especulou sobre a possibilidade de máquinas se tornarem inteligentes e até mesmo superarem a inteligência humana. Ele abordou essas questões em seu livro “Darwin Among the Machines” (1863), explorando a evolução e a relação entre humanos e máquinas.

1943: Warren McCulloch e Walter Pitts publicam “A Logical Calculus of Ideas Immanent in Nervous Activity“, que estabelece os fundamentos matemáticos para o campo das redes neurais artificiais (RNA). Nesse trabalho, eles utilizaram circuitos elétricos para modelar uma rede neural artificial simples, inspirada na estrutura e função do cérebro humano, e introduziram algoritmos conhecidos como lógica de limiar (threshold logic).

1949: Em seu livro “The Organization of Behavior”, Donald Hebb apresenta uma obra que descreve um conceito fundamental para a maneira como os seres humanos aprendem. Ele propõe que os caminhos neurais são fortalecidos cada vez que são usados. Hebb argumenta que quando dois neurônios disparam simultaneamente, a conexão entre eles é aprimorada. Esse princípio, conhecido como a regra de Hebb ou “células que disparam juntas, se conectam”, descreve como a atividade neural coordenada contribui para o fortalecimento das sinapses entre neurônios. Isso significa que quando uma determinada associação ou padrão de atividade ocorre repetidamente, as conexões sinápticas envolvidas nessa atividade se tornam mais eficazes, facilitando a transmissão de sinais entre esses neurônios.

A “interpretação padrão” do teste de Turing, na qual o jogador C, o interrogador, tem a tarefa de tentar determinar qual jogador – A ou B – é um computador e qual é um humano. O interrogador está limitado a utilizar as respostas às perguntas escritas para fazer a determinação. By Juan Alberto Sánchez Margallo. Source: Wikimedia Commons.

1950: Alan Turing publica o artigo “Computing Machinery and Intelligence“, no qual ele introduz o Teste de Turing, um padrão para determinar se uma máquina pode exibir comportamento inteligente equivalente ou indistinguível do humano. O teste envolve um avaliador humano que se envolve em conversas em linguagem natural com um humano e uma máquina, sem saber qual é qual. Se o avaliador não conseguir distinguir a máquina do humano, diz-se que a máquina passou no Teste de Turing.

1956: O termo “inteligência artificial” é cunhado na Conferência de Dartmouth, onde pesquisadores se reunem para discutir a possibilidade de criar máquinas que possam pensar e aprender. Isso marca o início da área de IA como uma disciplina acadêmica formal.

Marvin Minsky, Claude Shannon, Ray Solomonoff e outros cientistas no Projeto de Pesquisa de Verão Dartmouth sobre Inteligência Artificial (Foto: Margaret Minsky).

1957: Frank Rosenblatt, um neurobiologista, começou a trabalhar no Perceptron, o análogo artificial do neurônio. Ele estava intrigado com o funcionamento do olho de uma mosca. Grande parte do processamento feito por uma mosca ao decidir fugir é feito em seus olhos. O Perceptron, que resultou dessa pesquisa, foi construído em hardware e é a mais antiga rede neural ainda em uso hoje. Um Perceptron de camada única foi útil para classificar um conjunto de entradas de valor contínuo em uma de duas classes.

O Perceptron de Rosenblatt, descrito por Mitchell em “Machine Learning”, página 87. 24 de outubro de 2012. Fonte: Wikimedia Commons.

1959: Arthur Samuel desenvolve o primeiro programa de computador que aprende sozinho, um sistema de jogo de damas que melhora sua performance através de experiência. O programa é capaz de aprender com seus próprios erros e ajustar sua estratégia de acordo. Isso marca um exemplo precoce de aprendizado de máquina, uma subárea da IA que envolve o uso de algoritmos para melhorar o desempenho de um sistema com base em dados e experiência.

1966: John von Neumann explorou o conceito de autoreprodução e máquinas autônomas em seu trabalho “Theory of Self-Reproducing Automata” (1966).

GNU Emacs 21 mostrando ELIZA. Fonte: Wikimedia Commons (Dez. 2022).

1966: Joseph Weizenbaum cria o ELIZA, o primeiro programa de processamento de linguagem natural (PLN), que pode realizar conversas simples com humanos. O ELIZA usa correspondência de padrões e regras de substituição para gerar respostas a entradas do usuário, dando a impressão de compreensão e inteligência. Isso marca um exemplo inicial do PLN, uma subárea da IA que envolve o desenvolvimento de sistemas que podem compreender, interpretar e gerar a linguagem humana.

1969: A primeira conexão com a internet é estabelecida em 29 de outubro, interligando os dois primeiros nós do que viria a ser a ARPANET. O Network Measurement Center de Leonard Kleinrock, localizado na Escola de Engenharia e Ciências Aplicadas da UCLA, é conectado ao sistema NLS de Douglas Engelbart no SRI International (SRI) em Menlo Park, Califórnia. Esse marco histórico simboliza o início da rede que se tornaria a base da internet moderna e desempenha um papel crucial no desenvolvimento de sistemas de inteligência artificial distribuídos.

1972: O primeiro sistema especialista, chamado MYCIN, é desenvolvido na Universidade de Stanford. Ele é capaz de diagnosticar e recomendar o tratamento para infecções sanguíneas usando um conjunto de regras e conhecimentos fornecidos por especialistas humanos. Os sistemas especialistas são projetados para imitar as habilidades de tomada de decisão de um especialista humano em um determinado domínio e são um exemplo inicial de aplicações de IA na área da saúde.

1980: Kunihiko Fukushima propõe a Neoconitron, uma rede neural convolucional profunda (CNN), que foi utilizada para o reconhecimento de caligrafia e outros problemas de reconhecimento de padrões. O Neocognitron foi inspirado num modelo proposto por Hubel & Wiesel em 1959. Eles descobriram dois tipos de células no córtex visual primário chamadas células simples e células complexas, e também propuseram um modelo em cascata desses dois tipos de células para uso em tarefas de reconhecimento de padrões.

1980: John Hopfield propõe um novo modelo de rede neural. O modelo de rede neural de Hopfield é uma rede recorrente capaz de armazenar e recuperar padrões de memória associativa. Ele é composto por neurônios interconectados e utiliza uma função de energia para alcançar estados estáveis correspondentes a padrões armazenados. Esta rede tem a capacidade de recuperar informações completas a partir de estímulos incompletos e é aplicada em reconhecimento de padrões e problemas de otimização.

1984: Judea Pearl publicou um livro fundamental intitulado “Probabilistic Reasoning in Intelligent Systems”, que teve um impacto significativo no campo da Inteligência Artificial. Essa obra estabeleceu as bases teóricas da inferência bayesiana e das redes bayesianas na IA. O livro introduziu conceitos-chave, como a utilização de probabilidades para representar e raciocinar sobre incertezas em sistemas inteligentes. A inferência bayesiana se baseia no Teorema de Bayes para atualizar probabilidades conforme novas evidências são obtidas. As redes bayesianas, por sua vez, são modelos gráficos que permitem representar e inferir relações probabilísticas entre diferentes variáveis em um sistema. O trabalho de Judea Pearl foi essencial para o avanço das técnicas de raciocínio probabilístico na IA, proporcionando uma base sólida para a modelagem e tomada de decisões em cenários com incertezas. Desde então, as inferências bayesianas e as redes bayesianas têm sido amplamente utilizadas em diversos domínios da IA, contribuindo para a construção de sistemas inteligentes mais eficientes e confiáveis.

1986: David Rumelhart, Geoffrey Hinton e Ronald Williams publicaram o artigo seminal intitulado “Learning representations by back-propagating errors” (Aprendendo representações retropropagando erros, em tradução livre), que teve um impacto profundo no campo das redes neurais. Nesse artigo, eles propuseram e popularizaram o método de retropropagação, também conhecido como algoritmo de retropropagação de erros, para treinar redes neurais multicamadas. Esse método de treinamento permitiu que as redes neurais aprendessem representações de dados complexos, possibilitando a resolução de problemas difíceis de reconhecimento de padrões e processamento de informações. A retropropagação envolve o cálculo do gradiente do erro em relação aos pesos da rede e, em seguida, a atualização desses pesos usando técnicas de otimização. Através do uso eficiente desse algoritmo, Rumelhart, Hinton e Williams demonstraram que redes neurais multicamadas podiam aprender e generalizar a partir de grandes conjuntos de dados de forma mais eficaz do que os métodos tradicionais da época. Esse trabalho foi um marco fundamental no renascimento da IA e desencadeou um interesse renovado no desenvolvimento de redes neurais profundas e suas aplicações em várias áreas, impulsionando o avanço da aprendizagem de máquina e da inteligência artificial.

1989: Yann LeCun, Leon Bottou, Yoshua Bengio e Patrick Haffner desenvolveram o LeNet-5, uma rede neural convolucional revolucionária projetada especificamente para o reconhecimento de dígitos manuscritos. Lançado em 1998, o LeNet-5 foi um marco importante no campo da visão computacional e estabeleceu a base para muitas arquiteturas modernas de redes neurais convolucionais. A arquitetura do LeNet-5 consiste em camadas convolucionais, camadas de pooling e camadas totalmente conectadas, todas trabalhando em conjunto para extrair características discriminativas das imagens de dígitos manuscritos. Com o treinamento em grandes conjuntos de dados, o LeNet-5 alcançou resultados impressionantes no reconhecimento de dígitos, estabelecendo uma nova referência para a precisão e desempenho dos sistemas de reconhecimento ótico de caracteres (OCR). O sucesso do LeNet-5 abriu caminho para a aplicação de redes neurais convolucionais em uma ampla gama de tarefas de visão computacional, incluindo classificação de imagens, detecção de objetos e segmentação semântica. O LeNet-5 é considerado um marco significativo na história da IA e um ponto de partida para o desenvolvimento de arquiteturas mais avançadas de redes neurais convolucionais.

Décadas de 1980 e 1990: O inverno da IA refere-se a um período de redução de financiamento e interesse na pesquisa em inteligência artificial. O termo foi introduzido em 1984 para descrever um ciclo de entusiasmo seguido por decepção e críticas, resultando em cortes de financiamento e desaceleração da pesquisa na área. Durante esse período, as expectativas exageradas, as promessas inflacionadas e a intensa promoção na mídia contribuíram para o declínio do interesse na IA. No entanto, apesar dos altos e baixos na reputação da IA, a área continuou a desenvolver novas tecnologias bem-sucedidas. Desde o declínio da IA nos anos 90, tem havido um aumento gradual de entusiasmo e otimismo, culminando no atual boom na área, especialmente no campo do aprendizado de máquina. As principais causas desse “inverno da IA” incluem limitações técnicas relacionadas ao hardware e à disponibilidade de dados para treinamento dos sistemas de inteligência artificial.

Deep Blue, um computador similar a este, derrotou o campeão mundial de xadrez Garry Kasparov em maio de 1997. Foi o primeiro computador a vencer uma partida contra um campeão mundial. Foto tirada no Computer History Museum. Fonte: Wikimedia Commons.

1997: Em 1997, o Deep Blue da IBM derrota o campeão mundial de xadrez Garry Kasparov, marcando um marco importante no desenvolvimento da inteligência artificial. O Deep Blue utiliza técnicas avançadas de busca e avaliação, combinadas com hardware poderoso, para analisar e avaliar milhões de posições por segundo, superando assim seus oponentes humanos. Essa conquista representa um avanço significativo na aplicação da IA no campo de jogos, demonstrando o potencial dos sistemas de IA para superar especialistas humanos em tarefas estratégicas e complexas. A vitória do Deep Blue sobre Kasparov chamou a atenção do mundo para as capacidades emergentes da inteligência artificial e incentivou pesquisas e avanços subsequentes em algoritmos e técnicas de IA aplicados a jogos e outros domínios desafiadores.

Imagens de amostra do conjunto de dados de teste MNIST. A imagem contém números escritos à mão de 0 a 9. O tamanho de todas as pequenas imagens é de 28×28 pixels. A imagem pode ser usada para criar um programa de detecção de números usando aprendizado de máquina ou redes neurais. Por Suvanjanprasai. 2 de janeiro de 1998. Fonte: Wikimedia Commons.

1999: Um marco na IA é a criação da base de dados MNIST. A base de dados MNIST, que significa “Modified National Institute of Standards and Technology”, é uma extensa coleção de dígitos escritos à mão amplamente utilizada para treinar e testar algoritmos de aprendizado de máquina, especialmente no campo do reconhecimento e classificação de imagens. A base de dados consiste em milhares de exemplos rotulados de dígitos escritos à mão, fornecendo um benchmark padronizado para avaliar o desempenho de modelos de IA no reconhecimento e interpretação de caracteres escritos à mão. A base de dados MNIST contribuiu significativamente para o avanço da IA e tem sido um recurso fundamental para o desenvolvimento e benchmarking de diversos algoritmos de processamento de imagens e reconhecimento de padrões.

Meados dos anos 2000: o termo “aprendizagem profunda” começa a ganhar popularidade após um artigo de Geoffrey Hinton e Ruslan Salakhutdinov mostrar como uma rede neural de várias camadas poderia ser pré-treinada uma camada por vez.

2009: acontece o NIPS Workshop sobre Aprendizagem Profunda para Reconhecimento de Voz e descobre-se que com um conjunto de dados suficientemente grande, as redes neurais não precisam de pré-treinamento e as taxas de erro caem significativamente.

2011: A Apple introduz o Siri, um assistente virtual que usa processamento de linguagem natural para responder a perguntas e realizar tarefas. O Siri é capaz de entender e responder a pedidos falados, como definir lembretes ou fornecer direções, e é amplamente visto como um passo importante no desenvolvimento de sistemas práticos de PLN.

2012: Algoritmos de reconhecimento de padrões artificiais alcançam desempenho em nível humano em determinadas tarefas. E o algoritmo de aprendizagem profunda do Google é capaz de identificar gatos.

2014: o Google compra a Startup de Inteligência Artificial chamada DeepMind, do Reino Unido, por £ 400m.

2014: O AlphaGo do Google DeepMind derrota o campeão mundial de Go Lee Sedol, demonstrando as capacidades de algoritmos de aprendizado de máquina em situações complexas e estratégicas. Go é um jogo de tabuleiro com um grande número de possíveis movimentos, o que dificulta a avaliação e análise de todas as possibilidades pelos humanos. O AlphaGo usa uma combinação de técnicas de aprendizado profundo e de árvore de pesquisa de Monte Carlo para avaliar e selecionar seus movimentos, levando à sua surpreendente vitória sobre o campeão humano. Isso marca um marco importante no desenvolvimento da IA no campo de jogos, pois demonstra o potencial de algoritmos de aprendizado de máquina de superar especialistas humanos em tarefas complexas.

2015: Facebook coloca a tecnologia de aprendizado profundo – chamada DeepFace – em operação para marcar e identificar automaticamente usuários do Facebook em fotografias. Algoritmos executam tarefas superiores de reconhecimento facial usando redes profundas que levam em conta 120 milhões de parâmetros.

2016: O AlphaGo Zero, uma variante do AlphaGo, derrota a versão original sem receber qualquer dado gerado pelo humano. O AlphaGo Zero é capaz de aprender a jogar Go a um nível sobrenatural apenas jogando contra si mesmo, usando um algoritmo de aprendizado autônomo chamado aprendizado por reforço. Isso marca um marco significativo no desenvolvimento de sistemas de IA de aprendizado autônomo.

2017: O modelo de aprendizado de máquina da OpenAI, GPT-2, consegue gerar texto semelhante ao humano, o que levanta preocupações sobre o potencial de utilização da IA para fins maliciosos, como a geração de notícias falsas. O GPT-2 é treinado em um grande conjunto de dados de texto gerados pelo ser humano e é capaz de gerar parágrafos coerentes e críveis, bem como artigos completos sobre uma ampla gama de tópicos. Isso marca um marco importante no desenvolvimento da IA na área de processamento de linguagem, pois demonstra o potencial de algoritmos de aprendizado de máquina para gerar texto semelhante ao humano.

2017: adoção em massa do Deep Learning em diversas aplicações corporativas, além do avanço em pesquisas. Todos os eventos de tecnologia ligados a Data Science, IA e Big Data, apontam Deep Learning como a principal tecnologia para criação de sistemas inteligentes.

2019: O GPT-3 da OpenAI se torna o modelo de linguagem mais poderoso e grande até o momento, com 175 bilhões de parâmetros. É capaz de realizar uma ampla gama de tarefas de linguagem, incluindo tradução, resumo e resposta a perguntas, com precisão e fluência impressionantes. O GPT-3 é visto como um grande avanço na área de processamento de linguagem natural e aprendizado de máquina.

ChatGPT. Fonte: Wikimedia Commons (Dez. 2022).

2020: A pesquisa e o desenvolvimento de IA continuam avançando rapidamente, com novas aplicações e tecnologias surgindo em campos como saúde, finanças e transporte. Sistemas de IA também estão sendo usados para ajudar a enfrentar desafios sociais, como mudanças climáticas e a pandemia de COVID-19. No entanto, preocupações sobre os possíveis impactos da IA na sociedade, como o deslocamento de empregos e o viés nas decisões, continuam a ser um tópico de debate e pesquisa.

Dezembro de 2022: O AI-Talks nasce.


#IA #InteligênciaArtificial #EvoluçãoIA #HistóriaIA #Tecnologia #Inovação #AvançosTecnológicos #Inteligência #MachineLearning #DeepLearning #RedesNeurais #Automação #Futuro #TransformaçãoDigital #IAHoje #DesenvolvimentoTecnológico #IAparaTodos #IAparaVida #TecnologiaDoFuturo



Copyright 2024 AI-Talks.org

Leave a Reply

Your email address will not be published. Required fields are marked *