DSpace/Manakin Repository

Modelos de aprendizado de máquina para árvore de decisão interpretável: otimização vs heurística

Mostrar registro simples

dc.creator FIGUEREDO, Jader Duque
dc.date.issued 2024-12-06
dc.identifier.uri https://repositorio.unifei.edu.br/jspui/handle/123456789/4191
dc.description.abstract Artificial intelligence is becoming increasingly integrated into various daily activities, producing more robust tools and solutions, improving results, and enhancing human capabilities. The more complex supervised learning models, known as “black boxes” such as Neural Networks, are powerful but fall short in interpretability for solutions dealing with sensitive data in contexts like finance, healthcare, legal, or academia. In this regard, “white box” models, such as Decision Trees, prove to be robust and more suitable solutions due to their high level of interpretability. In addition to wellestablished machine learning models, such as Classification and Regression Trees (CART), recent studies have introduced new models like Optimal Classification Tree using Mixed-Integer Optimization (OCT-MIO), which is capable of fitting the training data even better and achieving higher accuracy in some cases. This work presents the modeling, implementation, and comparison of these two models, both in training and testing using cross-validation (K-Fold). It also includes a interpretability analysis of the obtained classification trees and the use of OCT-MIO as a heuristic. The experiments utilize real and sensitive data, such as for stress level diagnosis, credit approval prediction, and academic success prediction. Although CART is a good classification model, it was observed that the OCT-MIO model is a viable alternative capable of achieving results that are comparable, equal, or even better, especially for classification trees with a smaller height, which are ideal in scenarios where interpretability is required. Thus, the OCT-MIO model can classify data more accurately than CART in trees with a minimal height sufficient to classify all classes of a problem, while maintaining interpretability. pt_BR
dc.language por pt_BR
dc.publisher Universidade Federal de Itajubá pt_BR
dc.rights Acesso Aberto pt_BR
dc.subject Árvore de decisão ótima pt_BR
dc.subject Árvore de classificação ideal pt_BR
dc.subject Programação inteira mista pt_BR
dc.subject Otimização inteira mista pt_BR
dc.subject Aprendizado de máquina pt_BR
dc.subject Explicabilidade pt_BR
dc.subject Interpretabilidade pt_BR
dc.subject Auditabilidade pt_BR
dc.subject Validação cruzada k-fold pt_BR
dc.subject inteligência artificial pt_BR
dc.subject XAI pt_BR
dc.subject Outubro-mio pt_BR
dc.title Modelos de aprendizado de máquina para árvore de decisão interpretável: otimização vs heurística pt_BR
dc.type Dissertação pt_BR
dc.date.available 2025-01-27
dc.date.available 2025-01-27T17:30:04Z
dc.date.accessioned 2025-01-27T17:30:04Z
dc.creator.Lattes http://lattes.cnpq.br/5323391336547899 pt_BR
dc.contributor.advisor1 SILVEIRA, Carlos Henrique da
dc.contributor.advisor1Lattes http://lattes.cnpq.br/3775476837964989 pt_BR
dc.contributor.advisor-co1 HOHAMA, Pedro Henrique Del Bianco
dc.contributor.advisor-co1Lattes http://lattes.cnpq.br/9395192779202995 pt_BR
dc.description.resumo Cada dia mais a inteligência artificial é encontrada em diferentes atividades do cotidiano, gerando ferramentas e soluções cada vez mais robustas, melhorando resultados e potencializando habilidades humanas. Os modelos de aprendizado supervisionado mais complexos, chamados de “caixa preta”, tais como Redes Neurais, são poderosos, mas deixam a desejar em interpretabilidade para soluções que tratam de dados sensíveis em contextos como finanças, saúde, jurídico ou mesmo acadêmico. Neste sentido, modelos de “caixa branca”, como Árvores de Decisão se mostram soluções robustas e mais adequadas devido ao seu alto grau de interpretabilidade. Além de modelos de aprendizado de máquina já consolidados, como Árvore de Classificação e Regressão - CART, estudos recentes também trouxeram novos modelos como Árvore de Classificação Ótima usando Classificação Inteira Mista - OCT-MIO, capaz de se ajustar ainda mais aos dados de treinamento e alcançar maior acurácia em alguns casos. Este trabalho traz a modelagem, implementação e comparação destes dois modelos, tanto em treinamento, quanto em teste usando validação cruzada (K-Fold), além de uma análise da interpretabilidade das árvores e da utilização do OCT-MIO como heurística. Os experimentos utilizam dados reais e sensíveis como para diagnóstico de nível de estresse, predição para aprovação de crédito e predição de sucesso acadêmico. Apesar do CART ser um bom modelo de classificação, foi possível observar que o modelo OCT-MIO é uma alternativa capaz de obter resultados próximos, iguais ou ainda melhores, especialmente para árvores de classificação de menor altura, ideais em cenários onde a interpretabilidade é necessária. Desta forma, o modelo OCT-MIO é capaz de classificar dados mais corretamente que o CART em árvores de altura mínima o suficiente para classificar todas as classes de um problema, sem abrir mão da interpretabilidade. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department IESTI - Instituto de Engenharia de Sistemas e Tecnologia da Informação pt_BR
dc.publisher.program Programa de Pós-Graduação: Mestrado - Ciência e Tecnologia da Computação pt_BR
dc.publisher.initials UNIFEI pt_BR
dc.subject.cnpq CNPQ::CIÊNCIAS EXATAS E DA TERRA::CIÊNCIA DA COMPUTAÇÃO pt_BR
dc.relation.references FIGUEREDO, Jader Duque. Modelos de aprendizado de máquina para árvore de decisão interpretável: otimização vs heurística. 2024. 139 f. Dissertação (Mestrado em Ciência e Tecnologia da Computação.) – Universidade Federal de Itajubá, Itajubá, 2024. pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples