Icon

JKISeason2-25@obito_​od

There has been no title set for this workflow's metadata.

Just Knime It season2-25@obito_od

Just KNIME It! Season2
Challenge 25: Detecting the Presence of Heart Disease
@obito_od回答例

URL: Just KNIME It! https://www.knime.com/just-knime-it

Just KNIME It! season2-25 Knime ver. : 5.1.1 方針Parameter OptimizationLoop で最適化する。尚、リソースの都合があるのでHill Climbingで実施する。参考:https://hub.knime.com/knime/spaces/Examples/latest/04_Analytics/16_XGBoost/02_Housing_Value_Regression_with_XGBoost~SmyEe_4e3ixesd47ver.4.7系を使いたいところだけども今の自分の環境(M2 MAC)ではどうしてもXGBoost系のnodeを入れることができなかったので今回はver.5.1.1で実施することとした。 説明あなたはヘルスケア企業のデータサイエンティストとして、患者の心臓病の有無を予測するモデルを作成しようとしています。現在、あなたは11種類の特徴(潜在的な心臓病の指標)とXGBoost分類モデルを実験しており、そのチューニングの仕方によって性能がかなり変わることに気づきました。この課題では、XGBoost のブースティング・ラウンド数、最大木の深さ、および学習率のハイパーパラメータの最適値を見つけるために、ハイパーパラメータのチューニングを実装します。チューニングの目的関数としてメトリック F-Measure を使用します。 Description: You work as a data scientist for a healthcare company attempting tocreate a predictor for the presence of heart disease in patients. Currently, you areexperimenting with 11 different features (potential heart disease indicators) and theXGBoost classification model, and you noticed that its performance can change quite abit depending on how it is tuned. In this challenge, you will implement hyperparametertuning to find the best values for XGBoost's Number of Boosting Rounds, Max TreeDepth, and learning rate hyperparameters. Use metric F-Measure as the objectivefunction for tuning. データ読み込みHeartDisease -> string型に変更70:30に分割予測スコア計算F-measureの平均値計算最適化終了variable化最適化したパラメータをvariable化最適化したパラメータを適用してXGBoostで学習予測スコア計算5分割でクロスバリデーションクロスバリデーション終わりXGBoost学習roundETADepthを最適化します CSV Reader Number To String Partitioning XGBoost Predictor Scorer GroupBy ParameterOptimization Loop End Table RowTo Variable Table RowTo Variable XGBoost TreeEnsemble Learner XGBoost Predictor Scorer X-Partitioner X-Aggregator XGBoost TreeEnsemble Learner Parameter OptimizationLoop Start Just KNIME It! season2-25 Knime ver. : 5.1.1 方針Parameter OptimizationLoop で最適化する。尚、リソースの都合があるのでHill Climbingで実施する。参考:https://hub.knime.com/knime/spaces/Examples/latest/04_Analytics/16_XGBoost/02_Housing_Value_Regression_with_XGBoost~SmyEe_4e3ixesd47ver.4.7系を使いたいところだけども今の自分の環境(M2 MAC)ではどうしてもXGBoost系のnodeを入れることができなかったので今回はver.5.1.1で実施することとした。 説明あなたはヘルスケア企業のデータサイエンティストとして、患者の心臓病の有無を予測するモデルを作成しようとしています。現在、あなたは11種類の特徴(潜在的な心臓病の指標)とXGBoost分類モデルを実験しており、そのチューニングの仕方によって性能がかなり変わることに気づきました。この課題では、XGBoost のブースティング・ラウンド数、最大木の深さ、および学習率のハイパーパラメータの最適値を見つけるために、ハイパーパラメータのチューニングを実装します。チューニングの目的関数としてメトリック F-Measure を使用します。 Description: You work as a data scientist for a healthcare company attempting tocreate a predictor for the presence of heart disease in patients. Currently, you areexperimenting with 11 different features (potential heart disease indicators) and theXGBoost classification model, and you noticed that its performance can change quite abit depending on how it is tuned. In this challenge, you will implement hyperparametertuning to find the best values for XGBoost's Number of Boosting Rounds, Max TreeDepth, and learning rate hyperparameters. Use metric F-Measure as the objectivefunction for tuning. データ読み込みHeartDisease -> string型に変更70:30に分割予測スコア計算F-measureの平均値計算最適化終了variable化最適化したパラメータをvariable化最適化したパラメータを適用してXGBoostで学習予測スコア計算5分割でクロスバリデーションクロスバリデーション終わりXGBoost学習roundETADepthを最適化しますCSV Reader Number To String Partitioning XGBoost Predictor Scorer GroupBy ParameterOptimization Loop End Table RowTo Variable Table RowTo Variable XGBoost TreeEnsemble Learner XGBoost Predictor Scorer X-Partitioner X-Aggregator XGBoost TreeEnsemble Learner Parameter OptimizationLoop Start

Nodes

Extensions

Links