Kasutaja:Kittask/liivakast: erinevus redaktsioonide vahel

Eemaldatud sisu Lisatud sisu
Kittask (arutelu | kaastöö)
Resümee puudub
Kittask (arutelu | kaastöö)
Viited, parandused
1. rida:
'''Otsustusmetsa''' ([[Inglise keel|ingl]] random forest) algoritm kuulub ansambelõppe meetodite hulka. Ansambelmeetodi mõte on kasutada koos paljusid "nõrku õppijaid" (siinkohal [[otsustuspuu]]), et moodustada nendest üks "tugev õppija". Nagu ka teised [[Masinõppimine|masinõppe]] meetodid, kasutab otsustusmets õppimiseks ja väärtuste ennustamiseks treeningandmeid. <ref name=":0" />
 
Klassifikatsiooni algoritmide täpsus suurenes, kui esmakordselt loodi erinevatest puudest koosnev ansambel, sellise algoritmi väljundiks on puude poolt kõige enam ennustatud klass. Selliste ansablite kasvatamiseks kasutatakse tavaliselt juhuslikke vektoreid, mis juhivad iga puu kasvu ansamblis. <ref name=":1">{{Netiviide|Autor=Leo Breiman|URL=https://link.springer.com/content/pdf/10.1023%2FA%3A1010933404324.pdf|Pealkiri=Random Forests|Väljaanne=Machine Learning|Aeg=2001|Kasutatud=2018|Täpsustus=Introduction}}</ref>
Aastal 2001 töötas Breiman välja otsustusmetsa algoritmi arendades edasi bagging-meetodit. Breiman lisas bagging-meetodile juurde juhusliku kirjeldavate tunnuste valiku. See kuidas otsustusmetsa kasvatamise algoritm töötab on bagginguge sarnane, erinevus tuleb ainult puu treenimise meetodist. Otsustusmetsa korral valitakse parima otsususreegli välja selgitamisel piiratud arvu juhuslikke argumente (tavaliselt argumentide arv on m, nii et m ≈ √p, kus p tähistab kõikide argumentide arvu.  Puid otsustusmetsas ei kärbita. <ref>{{Netiviide|Autor=Hele-Liis Peedosk|URL=http://dspace.ut.ee/bitstream/handle/10062/57085/peedosk_hele-liis_bsc_2017.pdf|Pealkiri=Logistilise regressiooni ja otsustuspuumeetodite kasutamine
 
otsemu¨ugi efektiivsuse suurendamiseks|Väljaanne=|Aeg=2017|Kasutatud=}}</ref>
Varajane näide sellisest algoritmist on bagging algoritm, mille koostas Breiman aastal 1996. Bagging meetodi puhul kasutatakse puu kasvatamiseks juhuslikku hulka treeningandmete hulgast. <ref name=":1" />
 
== Ajalugu ==
 
Aastal 1995 pakkus Tin Kam Ho välja meetodi, mis eemaldaks otsustuspuude klassifitseerija keerukuse limitatsiooni.<ref>{{Netiviide|Autor=Tin Kam Ho|URL=https://web.archive.org/web/20160417030218/http://ect.bell-labs.com/who/tkh/publications/papers/odt.pdf|Pealkiri=Random Decision Forests|Väljaanne=|Aeg=1995|Kasutatud=2018|Täpsustus=Introduction}}</ref> Sellised klassifitseerijad ei saa meelevaldselt keerukuses kasvada nii et klassifitseerija ei kaotaks oma üldistamisoksust veel nägemata andmetel. Ho pakutud meetod kasutab ''kaldus otsustuspuid (ingl oblique decision tree''<nowiki/>'d), mis on head treenimisandmete täpsuse optimeerimiseks. Põhiline idee on koostada palju otsustuspuid juhuslikult valitud tunnuste alamruumides. <ref name=":0">{{Netiviide|Autor=Tin Kam Ho|URL=http://ect.bell-labs.com/who/tkh/publications/papers/df.pdf|Pealkiri=The Random Subspace Method for Constructing Decision Forests|Väljaanne=IEEE Transactions on Pattern Analysis and Machine Intelligence. 20 (8): 832–844|Aeg=1998|Kasutatud=2018|Täpsustus=Introduction}}</ref>
 
 
== Algoritm ==
Otsustusmetsa algoritmil on kaks staadiumi. Üks on otsustusmetsa loomine ja teine on loodud otsustusmetsa põhjal ennustuste tegemine.
Otsustusmetsa algoritm loob mitmeid otsustuspuid ja valib tulemuseks otsustuspuude poolt esitatud kõige sagedamini esineva tulemuse. Otsustuspuude arvust sõltub, kui täpselt suudab otsustusmetsa mudel ennustada. <ref>{{Netiviide|Autor=Brenda Uga 143067IAPB|URL=https://digi.lib.ttu.ee/i/?8114|Pealkiri=TTÜ TUDENGITE VÄLJALANGEMISE
ENNUSTAMINE: TÕENÄOSUSE
ARVUTAMINE MASINÕPPE MEETODITE
ABIL NING TULEMUSTE KUVAMINE
VEEBIRAKENDUSES|Väljaanne=|Aeg=2017|Kasutatud=}}</ref>
 
Otsustusmetsa algoritmil on kaks staadiumi. Üks on otsustusmetsa loomine ja teine on loodud otsustusmetsa põhjal ennustuste tegemine.
 
Otsustusmetsa loomise pseudokood:
 
# Vali juhuslikult <math>k</math> tunnust kõikide m tunnuste hulgast, kus <math>k <= m</math> .
# k tunnuste seas arvuta puu tipp <math>d</math> kasutades parimat lahknemispunkti.
# Jaota tipp tütartippudeks kasutades parimat lahknemispunkti.
# Korda 1–3 sammu kuni teatud arv <math>l</math> arv tippe otsustuspuus on loodud.
# Koosta mets korrates 1–4 sammu <math>n</math> korda, et koostada mets, mis koosneb n otsustuspuust.<ref>{{Netiviide|Autor=Shixin Gu|URL=https://syncedreview.com/2017/10/24/how-random-forest-algorithm-works-in-machine-learning/|Pealkiri=How Random Forest Algorithm Works in Machine Learning|Väljaanne=|Aeg=2017-10-24|Kasutatud=2018-11-13}}</ref>
 
== Omadused ==
30. rida ⟶ 26. rida:
Otsustusmetsa saab kasutada selleks, et hinnata erinevate muutujate tähtsust klassifikatsiooni või regressiooniprobleemis. Tähtsamad muutujad omavad suuremat mõju väljastatavatele väärtustele. Vastupidiselt avaldavad vähem tähtsad tunnused vähem mõju mudeli ennustustele ja seega võib need tunnused otsustusmetsa mudelist välja jätta, tehes nii mudeli lihtsamaks ja kiiremaks.
 
On olemas kaks erinevat mõõdet, millega muutujate tähtsust hinnata. Esimene mõõde põhineb sellel, kui palju langeb täpsus, kui tunnus mudelist välja jäetakse. Teine mõõde põhineb sellel, kui palju langeb andmete ebapuhtus Gini indeksiga, kui muutujat kasutatakse puutipu lahknemiseks.<ref>{{Netiviide|Autor=Jake Hoare|URL=https://www.displayr.com/how-is-variable-importance-calculated-for-a-random-forest/|Pealkiri=How is Variable Importance Calculated for a Random Forest?|Väljaanne=|Aeg=|Kasutatud=2018}}</ref>
 
== Otsustusmetsa eelised ja puudused <ref>{{Raamatuviide|autor=Tristan Luminous|pealkiri=Machine Learning For Beginners Guide Algorithms: =
Supervised & Unsupervised Learning Decision Tree & Random
Forest Introduction|aasta=|koht=|kirjastus=|lehekülg=51-52}}</ref> ==
Otsustusmetsal on mitmeid eeliseid:
 
47. rida ⟶ 41. rida:
* algoritm võib muutuda aeglaseks, kui puude arv metsas on väga suur ja seega pole päriselus probleemide lahendamiseks kõige efektiivsem;
* ei ennusta andmete vahelisi sidemeid;
* otsustusmets pole väga hea regressiooniülesande puhul. <ref>{{Raamatuviide|autor=Tristan Luminous|pealkiri=Machine Learning For Beginners Guide Algorithms:
Supervised & Unsupervised Learning Decision Tree & Random
Forest Introduction|aasta=2017|koht=|kirjastus=|lehekülg=51-52}}</ref> ==
 
== Viited ==