dc.creator |
FIGUEREDO, Jader Duque |
|
dc.date.issued |
2024-12-06 |
|
dc.identifier.uri |
https://repositorio.unifei.edu.br/jspui/handle/123456789/4191 |
|
dc.description.abstract |
Artificial intelligence is becoming increasingly integrated into various daily activities,
producing more robust tools and solutions, improving results, and enhancing human
capabilities. The more complex supervised learning models, known as “black boxes”
such as Neural Networks, are powerful but fall short in interpretability for solutions
dealing with sensitive data in contexts like finance, healthcare, legal, or academia.
In this regard, “white box” models, such as Decision Trees, prove to be robust and
more suitable solutions due to their high level of interpretability. In addition to wellestablished
machine learning models, such as Classification and Regression Trees
(CART), recent studies have introduced new models like Optimal Classification
Tree using Mixed-Integer Optimization (OCT-MIO), which is capable of fitting
the training data even better and achieving higher accuracy in some cases. This
work presents the modeling, implementation, and comparison of these two models,
both in training and testing using cross-validation (K-Fold). It also includes a
interpretability analysis of the obtained classification trees and the use of OCT-MIO
as a heuristic. The experiments utilize real and sensitive data, such as for stress level
diagnosis, credit approval prediction, and academic success prediction. Although
CART is a good classification model, it was observed that the OCT-MIO model
is a viable alternative capable of achieving results that are comparable, equal, or
even better, especially for classification trees with a smaller height, which are ideal
in scenarios where interpretability is required. Thus, the OCT-MIO model can
classify data more accurately than CART in trees with a minimal height sufficient
to classify all classes of a problem, while maintaining interpretability. |
pt_BR |
dc.language |
por |
pt_BR |
dc.publisher |
Universidade Federal de Itajubá |
pt_BR |
dc.rights |
Acesso Aberto |
pt_BR |
dc.subject |
Árvore de decisão ótima |
pt_BR |
dc.subject |
Árvore de classificação ideal |
pt_BR |
dc.subject |
Programação inteira mista |
pt_BR |
dc.subject |
Otimização inteira mista |
pt_BR |
dc.subject |
Aprendizado de máquina |
pt_BR |
dc.subject |
Explicabilidade |
pt_BR |
dc.subject |
Interpretabilidade |
pt_BR |
dc.subject |
Auditabilidade |
pt_BR |
dc.subject |
Validação cruzada k-fold |
pt_BR |
dc.subject |
inteligência artificial |
pt_BR |
dc.subject |
XAI |
pt_BR |
dc.subject |
Outubro-mio |
pt_BR |
dc.title |
Modelos de aprendizado de máquina para árvore de decisão interpretável: otimização vs heurística |
pt_BR |
dc.type |
Dissertação |
pt_BR |
dc.date.available |
2025-01-27 |
|
dc.date.available |
2025-01-27T17:30:04Z |
|
dc.date.accessioned |
2025-01-27T17:30:04Z |
|
dc.creator.Lattes |
http://lattes.cnpq.br/5323391336547899 |
pt_BR |
dc.contributor.advisor1 |
SILVEIRA, Carlos Henrique da |
|
dc.contributor.advisor1Lattes |
http://lattes.cnpq.br/3775476837964989 |
pt_BR |
dc.contributor.advisor-co1 |
HOHAMA, Pedro Henrique Del Bianco |
|
dc.contributor.advisor-co1Lattes |
http://lattes.cnpq.br/9395192779202995 |
pt_BR |
dc.description.resumo |
Cada dia mais a inteligência artificial é encontrada em diferentes atividades do
cotidiano, gerando ferramentas e soluções cada vez mais robustas, melhorando
resultados e potencializando habilidades humanas. Os modelos de aprendizado
supervisionado mais complexos, chamados de “caixa preta”, tais como Redes
Neurais, são poderosos, mas deixam a desejar em interpretabilidade para soluções
que tratam de dados sensíveis em contextos como finanças, saúde, jurídico ou
mesmo acadêmico. Neste sentido, modelos de “caixa branca”, como Árvores de
Decisão se mostram soluções robustas e mais adequadas devido ao seu alto grau de
interpretabilidade. Além de modelos de aprendizado de máquina já consolidados,
como Árvore de Classificação e Regressão - CART, estudos recentes também
trouxeram novos modelos como Árvore de Classificação Ótima usando Classificação
Inteira Mista - OCT-MIO, capaz de se ajustar ainda mais aos dados de treinamento
e alcançar maior acurácia em alguns casos. Este trabalho traz a modelagem,
implementação e comparação destes dois modelos, tanto em treinamento, quanto em
teste usando validação cruzada (K-Fold), além de uma análise da interpretabilidade
das árvores e da utilização do OCT-MIO como heurística. Os experimentos utilizam
dados reais e sensíveis como para diagnóstico de nível de estresse, predição para
aprovação de crédito e predição de sucesso acadêmico. Apesar do CART ser um
bom modelo de classificação, foi possível observar que o modelo OCT-MIO é
uma alternativa capaz de obter resultados próximos, iguais ou ainda melhores,
especialmente para árvores de classificação de menor altura, ideais em cenários
onde a interpretabilidade é necessária. Desta forma, o modelo OCT-MIO é capaz
de classificar dados mais corretamente que o CART em árvores de altura mínima
o suficiente para classificar todas as classes de um problema, sem abrir mão da
interpretabilidade. |
pt_BR |
dc.publisher.country |
Brasil |
pt_BR |
dc.publisher.department |
IESTI - Instituto de Engenharia de Sistemas e Tecnologia da Informação |
pt_BR |
dc.publisher.program |
Programa de Pós-Graduação: Mestrado - Ciência e Tecnologia da Computação |
pt_BR |
dc.publisher.initials |
UNIFEI |
pt_BR |
dc.subject.cnpq |
CNPQ::CIÊNCIAS EXATAS E DA TERRA::CIÊNCIA DA COMPUTAÇÃO |
pt_BR |
dc.relation.references |
FIGUEREDO, Jader Duque. Modelos de aprendizado de máquina para árvore de decisão interpretável: otimização vs heurística. 2024. 139 f. Dissertação (Mestrado em Ciência e Tecnologia da Computação.) – Universidade Federal de Itajubá, Itajubá, 2024. |
pt_BR |