{"id":485,"date":"2018-08-23T12:38:22","date_gmt":"2018-08-23T10:38:22","guid":{"rendered":"https:\/\/it.slotshaven.dk\/?p=485"},"modified":"2018-08-23T12:38:22","modified_gmt":"2018-08-23T10:38:22","slug":"termer-og-huskeord","status":"publish","type":"post","link":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/termer-og-huskeord\/","title":{"rendered":"Termer og huskeord"},"content":{"rendered":"<h4>AdaBoost<\/h4>\n<ol>\n<li>Laver en decision stump med f\u00e6rrest mulige fejl<\/li>\n<li>Tager de fejl der var p\u00e5 den &#8220;forkerte side&#8221;, og \u00f8ger v\u00e6gten (g\u00f8r dem vigtigere for den n\u00e6ste decision stump)<\/li>\n<li>Laver en ny decision stump, hvor den er s\u00e6rlig opm\u00e6rksom p\u00e5 de f\u00f8rste fejl<\/li>\n<li>Tilsidst har den et (p\u00e5 forh\u00e5nd aftalt) antal decision stumps med forskellige scores baseret p\u00e5 hvor mange fejl de gav for hver klasse<\/li>\n<li>N\u00e5r algoritmen s\u00e5 modtager NYE input &#8211; sp\u00f8rger den alle de forskellige decision stumps hvad de synes, og ved hj\u00e6lp af deres score\/v\u00e6gte regner den det mest sandsynlige ud<\/li>\n<\/ol>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-540\" src=\"https:\/\/it.slotshaven.dk\/wp-content\/uploads\/2018\/08\/ada-300x179.jpeg\" alt=\"\" width=\"300\" height=\"179\" \/><\/p>\n<h4>Decision Stump<\/h4>\n<p>Den simplest t\u00e6nkelige klassificerings algoritme; Nedf\u00e6lder en lige linje gennem tr\u00e6ningss\u00e6ttet, der hvor adskillelsen giver f\u00e6rrest fejl i forhold til tr\u00e6ningsdata.<\/p>\n<h4>Decision Tree\/Beslutningstr\u00e6<\/h4>\n<p>En mere kompleks udvikling af decision stump. Her opbygger algoritmen et beslutningstr\u00e6 udfra tr\u00e6ningsdata. Algoritmen virker som en tragt eller et filter.<\/p>\n<p>Egenskaber fra klasserne i tr\u00e6ningss\u00e6ttet danner de\u00a0 logiske operationer: hvis x er st\u00f8rre end [tal], kommer input til h\u00f8jre i beslutningstr\u00e6et, hvis mindre til venstre.<\/p>\n<p>Hver logiske operation i tr\u00e6et kaldes en &#8220;node&#8221;, og det er centralt for beslutningstr\u00e6ets effektivitet, at det er i stand til at opbygge &#8220;gode noder&#8221; &#8211; operationer som i s\u00e5 h\u00f8j grad som muligt adskiller klasserne hurtigt fra hinanden.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-536\" src=\"https:\/\/it.slotshaven.dk\/wp-content\/uploads\/2018\/08\/tree-300x193.jpeg\" alt=\"\" width=\"300\" height=\"193\" \/> <img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-537\" src=\"https:\/\/it.slotshaven.dk\/wp-content\/uploads\/2018\/08\/treescore-300x166.jpeg\" alt=\"\" width=\"300\" height=\"166\" \/><\/p>\n<h4>Entropi<\/h4>\n<p>Fra informationsteori: udtryk for den samlede uorden eller tilf\u00e6ldighed i et system.<\/p>\n<h4>Klassificering<\/h4>\n<p>En form for maskinl\u00e6ring, som opdeler input i et afgr\u00e6nset antal klasser.<\/p>\n<p>Se mere her i Kadenze kurset<\/p>\n<h4>kNN<\/h4>\n<p>K-nearest neighbour er en algoritme som skaber decision boundaries vha\u00a0 geometrisk afstand til de n\u00e6rmeste punkter i et tr\u00e6ningss\u00e6t (naboer). Hvor mange naboer der tages med i beregningen, angives af &#8220;k&#8221;. Flere naboer giver l\u00e6ngere beregningstid, men minimerer overfitting (brug af fejlagtige data).<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-531\" src=\"https:\/\/it.slotshaven.dk\/wp-content\/uploads\/2018\/08\/knn-300x180.jpeg\" alt=\"\" width=\"300\" height=\"180\" \/><\/p>\n<h4>Naive Bayes<\/h4>\n<p>Algoritme som klassificerer vha logisk sandsynlighedsberegning.<\/p>\n<p>Man kan t\u00e6nke s\u00e5dan, at Naive Bayes stiller en r\u00e6kke sp\u00f8rgsm\u00e5l: hvor sandsynligt er det at dette input h\u00f8rer til klasse a? Hvor sandsynligt er det at det h\u00f8rer til klasse B? Etc.<\/p>\n<p>Naive Bayes inddrager antallet af eksempler i tr\u00e6ningsdata til at beregne sandsynligheden. Jo flere forekomster af \u00e9n bestemt klasse, \u00f8ger sandsynligheden for at nye input tilh\u00f8rer den.<\/p>\n<p>Naive Bayes kan inddrage flere features for at st\u00f8tte robustheden af beregningen &#8211; eksemplet fra kurset er kropsl\u00e6ngder og farver p\u00e5 katte\/r\u00e6ve. Bem\u00e6rk at disse egenskaber ikke n\u00f8dvendigvis h\u00e6nger sammen (er r\u00f8de r\u00e6ve lange?). Deraf navnet &#8220;naive&#8221;<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-533\" src=\"https:\/\/it.slotshaven.dk\/wp-content\/uploads\/2018\/08\/nb-300x186.jpeg\" alt=\"\" width=\"300\" height=\"186\" \/><\/p>\n<h4>OSC<\/h4>\n<p><a href=\"http:\/\/opensoundcontrol.org\/introduction-osc\">Open Sound Control<\/a>. <strong>Protokol<\/strong>\u00a0som g\u00f8r det muligt at sende beskeder fra et computerprogram til et andet.<\/p>\n<p>T\u00e6nk: hvordan f\u00e5r vi et tastetryk i Word til at trykke pause i iTunes?<\/p>\n<h4>Overfit<\/h4>\n<p>En situation hvor en klassifier tolker data s\u00e5 n\u00f8jagtigt, at den inddrager fejl og st\u00f8j fra tr\u00e6ningsdata. Hvor vidt fortolkningen er &#8220;overfit&#8221; afh\u00e6nger af hvordan man \u00f8nsker at tolke de givne data.<\/p>\n<h4>SVM &#8211; Support Vector Machines<\/h4>\n<p>Projicerer klasserne ud i flere dimensioner, og bruger den flerdimensionelle figur til at skelne klasserne.<\/p>\n<h4>Training Accuracy<\/h4>\n<p>procentvis m\u00e5l for hvor mange fejl der er i fortolkningen af tr\u00e6ningsdata<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-543\" src=\"https:\/\/it.slotshaven.dk\/wp-content\/uploads\/2018\/08\/trining-acc-300x205.jpeg\" alt=\"\" width=\"300\" height=\"205\" \/><\/p>\n","protected":false},"excerpt":{"rendered":"<p>AdaBoost Laver en decision stump med f\u00e6rrest mulige fejl Tager de fejl der var p\u00e5 den &#8220;forkerte side&#8221;, og \u00f8ger v\u00e6gten (g\u00f8r dem vigtigere for den n\u00e6ste decision stump) Laver en ny decision stump, hvor den er s\u00e6rlig opm\u00e6rksom p\u00e5 de f\u00f8rste fejl Tilsidst har den et (p\u00e5 forh\u00e5nd aftalt) antal decision stumps med forskellige &#8230; <a title=\"Termer og huskeord\" class=\"read-more\" href=\"https:\/\/digitalteknik.slotshaven.it\/wordpress\/termer-og-huskeord\/\" aria-label=\"Read more about Termer og huskeord\">L\u00e6s mere <\/a><\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-485","post","type-post","status-publish","format-standard","hentry","category-ikke-kategoriseret"],"_links":{"self":[{"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/posts\/485","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/comments?post=485"}],"version-history":[{"count":0,"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/posts\/485\/revisions"}],"wp:attachment":[{"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/media?parent=485"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/categories?post=485"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/digitalteknik.slotshaven.it\/wordpress\/wp-json\/wp\/v2\/tags?post=485"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}