Stochastic Gradient Descent: Um Algoritmo Fundamental de Otimização para Aprendizado de Máquina

Capa: ‘Cheese Rolling on Cooper’s Hill’ por Charles March Gere em 1948, da Coleção do Museu de Gloucester. O registro mais antigo conhecido da corrida de queijo remonta a uma comunicação dirigida ao pregoeiro da cidade de Gloucester em 1826. Mesmo naquela época, era evidente que o evento tinha origens históricas significativas, com a crença de que sua origem remonta pelo menos a seis séculos atrás. Fonte: www.visitgloucester.co.uk




Um mapa de superfície 3D do Monte St. Helens com um mapa de contorno 2D acima para comparação. Por Clarknova – Produzido usando o Surfer 8 da Golden Software. CC BY-SA 3.0. Criado em 26 de outubro de 2008. Fonte: Wikipedia.

Polynomial Interpolation in a Nutshell (english).

Gradient Descent in a Nuteshell (English).

Generalização Melhorada: Combate ao Overfitting

Contraste de ajustes lineares e ajustes polinomiais (grau 10) aplicados a dados linearmente levemente ruidosos. Embora a função polinomial (obtida, por exemplo, por interpolação polinomial do ajuste de mínimos quadrados não linear) corresponda precisamente aos dados, espera-se que o ajuste linear apresente habilidades de generalização superiores. Ao fazer previsões além dos dados ajustados, especialmente em cenários de extrapolação, a função linear provavelmente oferecerá previsões mais precisas. Fonte da imagem: Wikimedia Commons, por Ghiles, licenciado sob Creative Commons Attribution-Share Alike 4.0. Data: 11 de março de 2016.

Escapando de Mínimos Acentuados: Navegando na Complexidade

Visualização de Máximos e Mínimos em uma Função Exponencial Senoidal Este diagrama ilustra o conceito de máximos e mínimos locais e globais no gráfico da função sin(x)*exp(-|x/5|), -3.2 π < x < 3.2 π. Ao contrário da maioria dos diagramas de extremos que consideram funções em intervalos específicos, este exemplo destaca extremos globais, mostrando os maiores e menores valores em todo o conjunto dos números reais. Criada por Inductiveload, esta imagem oferece insights valiosos sobre o comportamento de extremos em funções matemáticas. Fonte da imagem: Wikimedia Commons Data: 23 de outubro de 2007 Dimensões: 650 × 325 pixels Licença: Domínio público.

Desafios e Soluções

Princípio do menor ação no espaço de configuração, onde q em negrito representa o vetor de configuração (n-tupla de coordenadas generalizadas). Por Maschen, 11 de setembro de 2012, CC0 1.0. Fonte: Wikimedia Commons.

https://en.wikipedia.org/wiki/Stochastic_gradient_descent




Saída: Exemplo numérico de Interpolação Polinomial (Linear) realizado usando o Método de Gauss-Jordan.

Saída: Representação da regressão linear pelo Gradiente Descendente para um conjunto dado de pontos. Os coeficientes são Coeficiente A(Inclinação): 2.2089148116273587 Coeficiente B(Interceptação): 0.7678147013708242.

#IA #QueijoRolando #CoopersHill #DataVisualization #DIY #GradientDescent #InteligênciaArtificial #MínimosQuadrados #RegressãoLinear #AprendizadoDeMáquina #RedesNeurais #Treinamento #Python #StochasticGradientDescent


Copyright 2024 AI-Talks.org

Leave a Reply

Your email address will not be published. Required fields are marked *