Lanjutan Algoritma Supervised
Learning – Prediksi
1. Linear Regression: Algoritma ini memodelkan hubungan
antara variabel independen dan dependen dengan menyesuaikan garis lurus ke
data. Prediksi dibuat berdasarkan persamaan linear \( y = mx + c \).
2. Polynomial Regression: Ekstensi dari regresi linear yang
cocok untuk data yang memiliki hubungan non-linear antara variabel independen
dan dependen dengan menggunakan polinomial derajat tinggi.
3. Ridge Regression: Varian dari regresi linear yang
menggunakan regularisasi L2 untuk mencegah overfitting dengan menambahkan
penalti pada besar koefisien.
4. Lasso Regression: Varian dari regresi linear yang
menggunakan regularisasi L1 untuk mencegah overfitting dengan memaksa beberapa
koefisien menjadi nol.
5. Elastic Net Regression: Kombinasi dari Ridge dan Lasso
yang menggunakan kedua jenis regularisasi untuk meningkatkan kinerja model.
6. Logistic Regression: Meski sering digunakan untuk
klasifikasi, logistic regression juga dapat digunakan untuk prediksi
probabilitas kejadian dari suatu peristiwa biner.
7. Support Vector Regression (SVR): Varian dari SVM untuk
masalah regresi, yang berusaha meminimalkan kesalahan dalam margin tertentu
yang disebut epsilon.
8. Decision Tree Regression: Algoritma ini menggunakan
struktur pohon untuk memprediksi nilai dari variabel dependen berdasarkan fitur
dari data.
9. Random Forest Regression: Menggunakan beberapa pohon
keputusan untuk memprediksi nilai dengan mengkombinasikan prediksi dari setiap
pohon untuk mengurangi overfitting dan meningkatkan akurasi.
10. Gradient Boosting Regression: Membangun model prediktif
yang kuat dengan menggabungkan beberapa model prediktif yang lemah, biasanya
pohon keputusan, secara berurutan.
11. AdaBoost Regression: Algoritma boosting yang menambahkan
model baru yang berfokus pada data yang salah diprediksi oleh model sebelumnya.
12. XGBoost Regression: Implementasi dari gradient boosting
yang dioptimalkan untuk kecepatan dan kinerja. Sering digunakan dalam kompetisi
data science.
13. LightGBM Regression: Algoritma boosting yang menggunakan
teknik leaf-wise dan histogram untuk mempercepat proses pelatihan dan
meningkatkan efisiensi.
14. CatBoost Regression: Algoritma boosting yang menangani
fitur kategori dengan lebih efisien dan menghindari overfitting.
15. Neural Network Regression: Model yang terinspirasi oleh
otak manusia dan terdiri dari neuron yang diatur dalam lapisan. Neural Network
sangat kuat dalam menangkap pola kompleks dalam data untuk prediksi.
16. Convolutional Neural Network (CNN) Regression: Jenis
neural network yang dirancang khusus untuk memproses data grid-like, seperti
gambar, yang juga dapat digunakan untuk tugas regresi seperti deteksi objek.
17. Recurrent Neural Network (RNN) Regression: Jenis neural
network yang memiliki koneksi berulang, memungkinkan mereka untuk menangkap
dependensi temporal dalam data sekuensial, seperti time series.
18. Long Short-Term Memory (LSTM) Regression: Jenis khusus
dari RNN yang dirancang untuk menangani masalah vanishing gradient,
memungkinkan mereka untuk belajar dari urutan yang panjang untuk prediksi time
series.
19. Gated Recurrent Unit (GRU) Regression: Varian dari LSTM
yang lebih sederhana dan komputasi lebih efisien, digunakan untuk memproses
data sekuensial.
20. Bayesian Regression: Menggunakan statistik Bayesian
untuk memprediksi distribusi dari variabel dependen, memberikan rentang nilai
prediksi yang mungkin.
21. Kernel Ridge Regression: Menggabungkan ridge regression
dengan kernel trick untuk menangani data non-linear.
22. Quantile Regression: Memperkirakan quantiles atau
persentil dari distribusi data dependen, memberikan prediksi interval bukan
hanya nilai rata-rata.
23. Ordinary Least Squares (OLS) Regression: Teknik regresi
dasar yang meminimalkan jumlah kuadrat dari residual antara nilai yang diamati
dan nilai yang diprediksi.
24. Principal Component Regression (PCR): Menggunakan
analisis komponen utama (PCA) untuk mengurangi dimensi data sebelum melakukan
regresi.
25. Partial Least Squares (PLS) Regression: Teknik yang
mirip dengan PCR, tetapi juga mempertimbangkan hubungan antara variabel
independen dan dependen selama reduksi dimensi.
26. Huber Regression: Varian dari regresi yang lebih robust
terhadap outliers dengan menggunakan fungsi loss Huber.
27. Theil-Sen Estimator: Algoritma regresi yang robust
terhadap outliers dengan menggunakan median dari slopes dari semua pasangan
titik data.
28. RANSAC Regression: Algoritma yang robust terhadap
outliers dengan secara iteratif memilih subset data yang acak untuk memfit
model dan mengevaluasi inlier.
29. Gaussian Process Regression: Menggunakan proses Gaussian
untuk memodelkan distribusi probabilitas dari fungsi yang memetakan input ke
output.
30. Multivariate Adaptive Regression Splines (MARS):
Algoritma yang memperluas regresi linear dengan secara otomatis membangun model
yang memetakan hubungan non-linear antara variabel dependen dan independen.
Semoga penjelasan ini membantu Anda memahami berbagai
algoritma prediksi yang dapat digunakan dalam analisis data!