Icon

JKISeason2-6 Ángel Molina

Descripción: Trabajas para una agencia de marketing que monitoriza la presencia online de algunas aerolíneas para conocer las críticas que reciben. Te han pedido que identifiques si un tweet en el que se menciona una aerolínea es positivo, neutral o negativo, y has decidido implementar un sencillo clasificador de análisis de sentimiento para esta tarea. ¿Qué precisión puede obtener al automatizar este proceso? ¿Es probable que el clasificador ayude a los revisores de la compañía a ahorrar su tiempo?

VALIDACION CRUZADAVuelve a ejecutar el proceso de modelado muchas veces utilizando diferentesparticones de datos. X-GBOOSTXGBoost es una popular biblioteca de aprendizaje automático que se basa en lasideas de impulso. PARAMETER OPTIMIZATION LOOP - RANDOM FORESTEl modelo describe un bosque aleatorio y se aplica en el nodo predictor correspondiente mediante un voto de mayoria simple.Optimizado por FUERZA BRUTA GRADIENT BOSSTEDAlgoritmo para crear conjuntos de árboles de decisión.Comienza con un árbol poco profundo.Construye árboles adicionales para adaptarse a los erroresresiduales. Puede introducir aleatoriedad en la elección de subconjuntos dedatos y en la elección de variables. Regalo de KNIMEPor estas cosas, nos gusta KNIMEHace lo dificil, FACIL TREE ENSEMBLE Permite entrenar diferentes conjuntos de árboles. Node 1Node 34Write Predicted values to a file 64 % accuracy64 % accuracyNode 166156 % Accuracy56 % Accuracy62 % AccuracyNode 1675Table Reader Decision TreeTo Image CSV Writer(deprecated) Enrichmen Vectorization Joiner Column Filter Partitioning Tree EnsemblePredictor Gradient BoostedTrees Learner Gradient BoostedTrees Predictor Scorer Scorer Partitioning Parameter OptimizationLoop Start ParameterOptimization Loop End Scorer Random ForestLearner Random ForestPredictor X-Partitioner Random ForestPredictor Random ForestLearner Scorer XGBoost TreeEnsemble Learner XGBoost Predictor Scorer Partitioning X-Aggregator Tree EnsembleLearner VALIDACION CRUZADAVuelve a ejecutar el proceso de modelado muchas veces utilizando diferentesparticones de datos. X-GBOOSTXGBoost es una popular biblioteca de aprendizaje automático que se basa en lasideas de impulso. PARAMETER OPTIMIZATION LOOP - RANDOM FORESTEl modelo describe un bosque aleatorio y se aplica en el nodo predictor correspondiente mediante un voto de mayoria simple.Optimizado por FUERZA BRUTA GRADIENT BOSSTEDAlgoritmo para crear conjuntos de árboles de decisión.Comienza con un árbol poco profundo.Construye árboles adicionales para adaptarse a los erroresresiduales. Puede introducir aleatoriedad en la elección de subconjuntos dedatos y en la elección de variables. Regalo de KNIMEPor estas cosas, nos gusta KNIMEHace lo dificil, FACIL TREE ENSEMBLE Permite entrenar diferentes conjuntos de árboles. Node 1Node 34Write Predicted values to a file 64 % accuracy64 % accuracyNode 166156 % Accuracy56 % Accuracy62 % AccuracyNode 1675Table Reader Decision TreeTo Image CSV Writer(deprecated) Enrichmen Vectorization Joiner Column Filter Partitioning Tree EnsemblePredictor Gradient BoostedTrees Learner Gradient BoostedTrees Predictor Scorer Scorer Partitioning Parameter OptimizationLoop Start ParameterOptimization Loop End Scorer Random ForestLearner Random ForestPredictor X-Partitioner Random ForestPredictor Random ForestLearner Scorer XGBoost TreeEnsemble Learner XGBoost Predictor Scorer Partitioning X-Aggregator Tree EnsembleLearner

Nodes

Extensions

Links