30. Algoritma Supervised Learning – Prediksi

 


Lanjutan Algoritma Supervised Learning – Prediksi

 

1. Linear Regression: Algoritma ini memodelkan hubungan antara variabel independen dan dependen dengan menyesuaikan garis lurus ke data. Prediksi dibuat berdasarkan persamaan linear \( y = mx + c \).

 

2. Polynomial Regression: Ekstensi dari regresi linear yang cocok untuk data yang memiliki hubungan non-linear antara variabel independen dan dependen dengan menggunakan polinomial derajat tinggi.

 

3. Ridge Regression: Varian dari regresi linear yang menggunakan regularisasi L2 untuk mencegah overfitting dengan menambahkan penalti pada besar koefisien.

 

4. Lasso Regression: Varian dari regresi linear yang menggunakan regularisasi L1 untuk mencegah overfitting dengan memaksa beberapa koefisien menjadi nol.

 

5. Elastic Net Regression: Kombinasi dari Ridge dan Lasso yang menggunakan kedua jenis regularisasi untuk meningkatkan kinerja model.

 

6. Logistic Regression: Meski sering digunakan untuk klasifikasi, logistic regression juga dapat digunakan untuk prediksi probabilitas kejadian dari suatu peristiwa biner.

 

7. Support Vector Regression (SVR): Varian dari SVM untuk masalah regresi, yang berusaha meminimalkan kesalahan dalam margin tertentu yang disebut epsilon.

 

8. Decision Tree Regression: Algoritma ini menggunakan struktur pohon untuk memprediksi nilai dari variabel dependen berdasarkan fitur dari data.

 

9. Random Forest Regression: Menggunakan beberapa pohon keputusan untuk memprediksi nilai dengan mengkombinasikan prediksi dari setiap pohon untuk mengurangi overfitting dan meningkatkan akurasi.

 

10. Gradient Boosting Regression: Membangun model prediktif yang kuat dengan menggabungkan beberapa model prediktif yang lemah, biasanya pohon keputusan, secara berurutan.

 

11. AdaBoost Regression: Algoritma boosting yang menambahkan model baru yang berfokus pada data yang salah diprediksi oleh model sebelumnya.

 

12. XGBoost Regression: Implementasi dari gradient boosting yang dioptimalkan untuk kecepatan dan kinerja. Sering digunakan dalam kompetisi data science.

 

13. LightGBM Regression: Algoritma boosting yang menggunakan teknik leaf-wise dan histogram untuk mempercepat proses pelatihan dan meningkatkan efisiensi.

 

14. CatBoost Regression: Algoritma boosting yang menangani fitur kategori dengan lebih efisien dan menghindari overfitting.

 

15. Neural Network Regression: Model yang terinspirasi oleh otak manusia dan terdiri dari neuron yang diatur dalam lapisan. Neural Network sangat kuat dalam menangkap pola kompleks dalam data untuk prediksi.

 

16. Convolutional Neural Network (CNN) Regression: Jenis neural network yang dirancang khusus untuk memproses data grid-like, seperti gambar, yang juga dapat digunakan untuk tugas regresi seperti deteksi objek.

 

17. Recurrent Neural Network (RNN) Regression: Jenis neural network yang memiliki koneksi berulang, memungkinkan mereka untuk menangkap dependensi temporal dalam data sekuensial, seperti time series.

 

18. Long Short-Term Memory (LSTM) Regression: Jenis khusus dari RNN yang dirancang untuk menangani masalah vanishing gradient, memungkinkan mereka untuk belajar dari urutan yang panjang untuk prediksi time series.

 

19. Gated Recurrent Unit (GRU) Regression: Varian dari LSTM yang lebih sederhana dan komputasi lebih efisien, digunakan untuk memproses data sekuensial.

 

20. Bayesian Regression: Menggunakan statistik Bayesian untuk memprediksi distribusi dari variabel dependen, memberikan rentang nilai prediksi yang mungkin.

 

21. Kernel Ridge Regression: Menggabungkan ridge regression dengan kernel trick untuk menangani data non-linear.

 

22. Quantile Regression: Memperkirakan quantiles atau persentil dari distribusi data dependen, memberikan prediksi interval bukan hanya nilai rata-rata.

 

23. Ordinary Least Squares (OLS) Regression: Teknik regresi dasar yang meminimalkan jumlah kuadrat dari residual antara nilai yang diamati dan nilai yang diprediksi.

 

24. Principal Component Regression (PCR): Menggunakan analisis komponen utama (PCA) untuk mengurangi dimensi data sebelum melakukan regresi.

 

25. Partial Least Squares (PLS) Regression: Teknik yang mirip dengan PCR, tetapi juga mempertimbangkan hubungan antara variabel independen dan dependen selama reduksi dimensi.

 

26. Huber Regression: Varian dari regresi yang lebih robust terhadap outliers dengan menggunakan fungsi loss Huber.

 

27. Theil-Sen Estimator: Algoritma regresi yang robust terhadap outliers dengan menggunakan median dari slopes dari semua pasangan titik data.

 

28. RANSAC Regression: Algoritma yang robust terhadap outliers dengan secara iteratif memilih subset data yang acak untuk memfit model dan mengevaluasi inlier.

 

29. Gaussian Process Regression: Menggunakan proses Gaussian untuk memodelkan distribusi probabilitas dari fungsi yang memetakan input ke output.

 

30. Multivariate Adaptive Regression Splines (MARS): Algoritma yang memperluas regresi linear dengan secara otomatis membangun model yang memetakan hubungan non-linear antara variabel dependen dan independen.

 

Semoga penjelasan ini membantu Anda memahami berbagai algoritma prediksi yang dapat digunakan dalam analisis data!

:)
:(
hihi
:-)
:D
=D
:-d
;(
;-(
@-)
:P
:o
:>)
(o)
:p
(p)
:-s
(m)
8-)
:-t
:-b
b-(
:-#
=p~
x-)
(k)