Skip to content

Lucasnobrepro/Marchine_Learning-PT

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Guia do repositorio de algoritmos de machine Leaning:

01: Naive Bayes

-O algoritmo “Naive Bayes” é um classificador probabilístico baseado no “Teorema de Bayes”, 
o qual foi criado por Thomas Bayes (1701 - 1761) para tentar provar a existência de Deus.

-A principal característica do algoritmo, e também o motivo de receber “naive” (ingênuo) 
no nome, é que ele desconsidera completamente a correlação entre as variáveis (features).

-Usado bastante para identificar se um email é um spam utilizando da frequencia de palavras
nele contido. 

02: Ávores de Decisão

-Árvores de decisão é um método de aprendizado de máquinas supervisionado não-paramétricos,
 utilizado em tarefas de classificação e regressão.
 
 -As ávore de de decisão são compostas por nós e folhas, os nós podem ser 'RAIZ' ou 'FILHO' que
 guardão informação, o 'RAIZ' é aquele que possui o maior nivel hierárquico e é o primeiro nó 
 de decisão, ele pode ter nós filhos de nivel hierárquico mais baixo, os filhos por sua vez podem
 ter outros filhos, e os nós que não possuem filhos são chamados de 'folhas' as folhas sinalizam
 o final da ávore de decisão.
 
 -Uma árvore armazena regras em seus nós que devem ser aplicadas aos dados, e os nós folhas 
 representam a decisão a ser tomada, no caso uma classificação.
 
 -Uma árvore de decisão, uma decisão é tomada através do caminhamento a partir do nó raiz até o nó folha.

03: Random Florest

-Floresta Aleatória (random forest) é um algoritmo de aprendizagem supervisionada. Como você pode perceber
 pelo seu nome, ele cria uma floresta de um modo aleatório. A “floresta” que ele cria é uma combinação (ensemble)
 de árvores de decisão, na maioria dos casos treinados com o método de bagging. A idéia principal do método de 
 bagging é que a combinação dos modelos de aprendizado aumenta o resultado geral.

04: Aprendizagem por Regras

05: KNN - K-Nearest Neighbors

-KNN(K — Nearest Neighbors) é um dos muitos algoritmo usado no campo de machine learning, ele é um classificador
onde o aprendizado é baseado “no quão similar” é um dado (um vetor) do outro. O KNN usa o como base para encontar 
a similaridade a distancia de cada dado não classificado, usando distâncias como Euclidiana, Manhattan, Minkowski 
ou Ponderada, dos dados que já estão classificados.

06: Regressão Logística

 -A Regressão Logística é uma regressão múltipla, mas com uma variável de saída categórica binária (dependente) e
 variáveis preditivas (explicativas ou independentes) contínuas ou categóricas. Quando a variável dependente é 
 binária (como sim/não), não podemos usar a regressão linear. Optamos por isso por uma transformação logarítmica 
 e procedemos para a analisar o grau preditivo da(s) variável(is) independente(s).
 
 -É uma das funções que possui a curva de forma “S” utilizada para a classificação binária. Converte valores para
 o intervalo de 0, 1 que interpretou como uma probabilidade de ocorrer algum evento

07: SVM - Support Vector Machine

08: Neural_Network

09: Cross_Validation

10: Salvando_models

11: Combinacao_de_Models

12: Regressao_Linear

-O algoritmo de Regressão linear usará os pontos de dados para encontrar a melhor linha de ajuste para modelar os 
dados. Uma linha pode ser representada pela equação, y = m * x + c onde y é a variável dependente e x é a variável
independente. As teorias básicas de cálculo são aplicadas para encontrar os valores para m e c usando o conjunto 
de dados fornecido.

-A Regressão linear tem 2 tipos como Regressão linear simples, onde são utilizadas apenas 1 variável independente 
e Regressão linearmúltipla, onde múltiplas variáveis independentes são definidas.

13: Regressao_Polinomial

14: Algoritmo_Apriori

15: K-means

-Este é um algoritmo sem supervisão que fornece uma solução para o problema de agrupamento. O algoritmo segue um
procedimento para formar clusters que contêm pontos de dados homogêneos.

-O valor de k é uma entrada para o algoritmo. Com base nisso, o algoritmo seleciona k número de centroides. Em seguida,
os pontos de dados vizinhos para um centróide se combinam com o centroide e criam um cluster. Mais tarde, um novo centróide
é criado dentro de cada cluster. Em seguida, os pontos de dados próximos ao novo centróide serão combinados novamente 
para expandir o cluster. Esse processo é continuado até que os centroides não mudem.

16: Cluster_Hierarquico

17: Cluster_DBSCAN

18: Reducao_de_Dimensionalidade

Referencias e Fontes

01: Naive Bayes:
https://www.organicadigital.com/blog/algoritmo-de-classificacao-naive-bayes/
https://minerandodados.com.br/naive-bayes-machine-learning/
02: Ávore de Decisões:
https://medium.com/machine-learning-beyond-deep-learning/%C3%A1rvores-de-decis%C3%A3o-3f52f6420b69
http://web.tecnico.ulisboa.pt/ana.freitas/bioinformatics.ath.cx/bioinformatics.ath.cx/indexf23d.html?id=199
03: Random Florest:
https://medium.com/machina-sapiens/o-algoritmo-da-floresta-aleat%C3%B3ria-3545f6babdf8
05: KNN - K-Nearest Neighbors
https://medium.com/brasil-ai/knn-k-nearest-neighbors-1-e140c82e9c4e
06: Regressão Logística
https://pcodinomebzero.neocities.org/Pages/regressao_logistica.html
https://medium.com/@cristianofurquim/10-algoritmos-de-aprendizagem-de-máquinas-machine-learning-que-você-precisa-saber-c49f9eefe319
07: SVM - Support Vector Machine
08: Neural_Network
09: Cross_Validation
10: Salvando_models
11: Combinacao_de_Models
12: Regressao_Linear
https://medium.com/@cristianofurquim/10-algoritmos-de-aprendizagem-de-máquinas-machine-learning-que-você-precisa-saber-c49f9eefe319
13: Regressao_Polinomial
14: Algoritmo_Apriori
15: K-means
https://medium.com/@cristianofurquim/10-algoritmos-de-aprendizagem-de-máquinas-machine-learning-que-você-precisa-saber-c49f9eefe319
16: Cluster_Hierarquico
17: Cluster_DBSCAN
18: Reducao_de_Dimensionalidade

About

Repositório de códigos de aprendizagem de maquina.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published