Neural network 2 Moving Averages Ett neuralt nätverk Expert Advisor baserat på två glidande medelvärden med träningsläget. Trä expertrådgivaren på utvalda exempel och gör en vinst i verkligheten. EA kan arbeta på något instrument och i vilken tidsram som helst. EA: s handelsalgoritm Två rörliga medelvärden analyseras av den neurala nätverkskärnan, som producerar kommandon för att köpa eller sälja. värdena för två glidande medelvärden, snabb (FMA) och långsam (SMA), tillhandahålls till det första skiktet, vid det andra skiktet beräknas två neuroner som är ansvariga för Köp (N köp) och Sälj (N sälja), beslutet att köpa eller säljs görs på tredje nivå. Blockdiagram över det neurala nätverket visas i figuren. Expert Advisor Training I träningsläge kommer EA ihåg värdena för glidande medelvärden som markeras av användaren på diagrammet för valutainstrumentet. I framtiden, under normal drift, känner den igen värdena för de glidande medelvärdena. Att träna EA-märket minst en lång och en kort handel på diagrammet. För att indikera en lång handel använder du Köp-pilen, och för kort handel använder du Sälj-pilen. Du kan placera fler pilar på diagrammet. Ju fler pilar desto längre blir träningsprocessen. Närvaron av andra objekt i diagrammet än pilarna är inte önskvärt. Efter träningen skapas mapp NN 2MA i terminalens gemensamma mapp. Det kommer att innehålla filen HHHHHHNN2MA. bin med inställningarna för det utbildade neurala nätverket. XXXXXX i filnamnet är namnet på det finansiella instrumentet. Vid normal drift laddar EA data från filen. Om filen inte hittas kommer den att använda standardinställningarna. Som standard utbildas EA vid USDJPY och en timmes tidsram. Traderna väljs år 2012. Följande ingångsparametrar är ansvariga för EA-träningen: Antal vikter per neuron. Motsvarande längden på MA. Standard - 48. Antal träningscykler - standard 100. Ju högre värde desto längre blir träningsprocessen. I försöksversionen är det 10. Faktor b - värdet påverkar hastigheten för korrigering av vikter av neuroner, används för att träna nätverket. Standardvärdet är 0,7, behöver inte ändras. Lärarmodus EA - aktiverar EA: s träningsmodus. Exempel på att specificera branscher för utbildning av EA finns i figuren. Inställningarna för normalläge för rörliga medelvärden Du kan justera inställningarna för varje glidande medelvärde: perioden, priset, beräkningsläget. Ordervolym - standard är 0,1. Värdet av glidningar i poäng - standard är 30. Antal försök att öppna en position - standard är 5. Nivå StopLoss i poäng - standard är 0. Nivå TakeProfit i poäng - standard är 0. Nivå TrailingStop i poäng - standard är 650. Tillåt Money Management - kontrollera orderstorleken för att komma in på marknaden, aktiverad av defalt. Om läget är avstängt, är orderstorleken hämtad från volymen av orderparametern. Ordervolymen i procent av insättningen - som används för att styra orderstorleken, är standard 5 procent. Lägger till i öppet läge - aktiverat som standard. Om det finns en signal att komma in på marknaden i riktning mot ett öppet läge, går EA in på marknaden. Inställningar för neuralt nätverk Antal vikter per neuron. Motsvarande längden på MA. Ju högre värde desto mer exakt kommer nuvarande marknadstillstånd att erkännas, men det minskar antalet branscher. Ju lägre värde desto mindre exakt kommer nuvarande marknadstillstånd att erkännas, men antalet affärer ökar. Värdet av neuronaktivering. Värdet är cirka 0,75 av värdet av antalet vikter per neuron. Ju högre värde desto strängare är valet av neuroner för att fatta ett beslut. I försöksversionen är det 40. Antal träningscykler - standard är 100. Faktor b viktkorrigeringshastigheten, standard är 0,7. Läroläge EA EA träningsmodus. Under träning visas de maximala värdena för neuronerna i kommentarerna på diagrammet. Dessa värden kan användas som ett aktiveringsvärde för neuronen. Ett exempel visas i figuren. Aktivera kommentarer - möjliggör kommentarer på diagrammet. Magic Antal Advisor. Paus efter handel i millisekunder. Som standard utbildas EA på USDJPY H1 på två branscher under 2012. Resultatet av Expert Advisor-testningen 2013 visas i det här avsnittet. Nätverksnätverk 2 Rörande medelvärden Ett neuralt nätverk Expert Advisor baserat på två glidande medelvärden med träningsläge . Trä expertrådgivaren på utvalda exempel och gör en vinst i verkligheten. EA kan arbeta på något instrument och i vilken tidsram som helst. EA: s handelsalgoritm Två rörliga medelvärden analyseras av den neurala nätverkskärnan, som producerar kommandon för att köpa eller sälja. värdena för två glidande medelvärden, snabb (FMA) och långsam (SMA), tillhandahålls till det första skiktet, vid det andra skiktet beräknas två neuroner som är ansvariga för Köp (N köp) och Sälj (N sälja), beslutet att köpa eller säljs görs på tredje nivå. Blockdiagram över det neurala nätverket visas i figuren. Expert Advisor Training I träningsläge kommer EA ihåg värdena för glidande medelvärden som markeras av användaren på diagrammet för valutainstrumentet. I framtiden, under normal drift, känner den igen värdena för de glidande medelvärdena. Att träna EA-märket minst en lång och en kort handel på diagrammet. För att indikera en lång handel använder du Köp-pilen, och för kort handel använder du Sälj-pilen. Du kan placera fler pilar på diagrammet. Ju fler pilar desto längre blir träningsprocessen. Närvaron av andra objekt i diagrammet än pilarna är inte önskvärt. Efter träningen skapas mapp NN 2MA i terminalens gemensamma mapp. Det kommer att innehålla filen HHHHHHNN2MA. bin med inställningarna för det utbildade neurala nätverket. XXXXXX i filnamnet är namnet på det finansiella instrumentet. Vid normal drift laddar EA data från filen. Om filen inte hittas kommer den att använda standardinställningarna. Som standard utbildas EA vid USDJPY och en timmes tidsram. Traderna väljs år 2012. Följande ingångsparametrar är ansvariga för EA-träningen: Antal vikter per neuron. Motsvarande längden på MA. Standard - 48. Antal träningscykler - standard 100. Ju högre värde desto längre blir träningsprocessen. I försöksversionen är det 10. Faktor b - värdet påverkar hastigheten för korrigering av vikter av neuroner, används för att träna nätverket. Standardvärdet är 0,7, behöver inte ändras. Lärarmodus EA - aktiverar EA: s träningsmodus. Exempel på att specificera branscher för utbildning av EA finns i figuren. Inställningarna för normalläge för rörliga medelvärden Du kan justera inställningarna för varje glidande medelvärde: perioden, priset, beräkningsläget. Ordervolym - standard är 0,1. Värdet av glidningar i poäng - standard är 30. Antal försök att öppna en position - standard är 5. Nivå StopLoss i poäng - standard är 0. Nivå TakeProfit i poäng - standard är 0. Nivå TrailingStop i poäng - standard är 650. Tillåt Money Management - kontrollera orderstorleken för att komma in på marknaden, aktiverad av defalt. Om läget är avstängt, är orderstorleken hämtad från volymen av orderparametern. Ordervolymen i procent av insättningen - som används för att styra orderstorleken, är standard 5 procent. Lägger till i öppet läge - aktiverat som standard. Om det finns en signal att komma in på marknaden i riktning mot ett öppet läge, går EA in på marknaden. Inställningar för neuralt nätverk Antal vikter per neuron. Motsvarande längden på MA. Ju högre värde desto mer exakt kommer nuvarande marknadstillstånd att erkännas, men det minskar antalet branscher. Ju lägre värde desto mindre exakt kommer nuvarande marknadstillstånd att erkännas, men antalet affärer ökar. Värdet av neuronaktivering. Värdet är cirka 0,75 av värdet av antalet vikter per neuron. Ju högre värde desto strängare är valet av neuroner för att fatta ett beslut. I försöksversionen är det 40. Antal träningscykler - standard är 100. Faktor b viktkorrigeringshastigheten, standard är 0,7. Läroläge EA EA träningsmodus. Under träning visas de maximala värdena för neuronerna i kommentarerna på diagrammet. Dessa värden kan användas som ett aktiveringsvärde för neuronen. Ett exempel visas i figuren. Aktivera kommentarer - möjliggör kommentarer på diagrammet. Magic Antal Advisor. Paus efter handel i millisekunder. Som standard utbildas EA på USDJPY H1 på två branscher under 2012. Resultatet av Expert Advisor-testningen 2013 visas i figuren.9.3 Neurala nätverksmodeller Artificiella neurala nätverk är prognosmetoder som bygger på enkla matematiska modeller av hjärna. De tillåter komplexa olinjära relationer mellan svarsvariabeln och dess prediktorer. Neural network architecture Ett neuralt nätverk kan ses som ett nätverk av neuroner organiserade i lager. Prediktorerna (eller ingångarna) bildar bottenskiktet, och prognoserna (eller utgångarna) bildar toppskiktet. Det kan finnas mellanliggande skikt som innehåller dolda neuroner. De allra enklaste nätverket innehåller inga dolda lager och motsvarar linjär regression. Figur 9.9 visar den neurala nätverksversionen av en linjär regression med fyra prediktorer. Koefficienterna fästade vid dessa prediktorer kallas vikter. Prognoserna erhålls genom en linjär kombination av ingångarna. Vikten väljs i nätverket med hjälp av en inlärningsalgoritm som minimerar en kostnadsfunktion som MSE. Naturligtvis kan vi i detta enkla exempel använda linjär regression som är en mycket effektivare metod för träning av modellen. När vi lägger till ett mellanlager med dolda neuroner blir det neurala nätverket icke-linjärt. Ett enkelt exempel visas i Figur 9.10. Detta är känt som ett flerskiktet feed-forward-nätverk där varje lager av noder mottar ingångar från de tidigare lagren. Utgångarna från noder i ett lager är ingångar till nästa lager. Ingångarna till varje nod kombineras med en vägd linjär kombination. Resultatet modifieras sedan av en olinjär funktion innan den matas ut. Till exempel kombineras ingångarna till dold neuron j i figur 9.10 linjärt för att ge 91 zj bj summa 4 w xi. 93 I det dolda lagret modifieras detta sedan med en icke-linjär funktion, såsom en sigmoid, för att ge ingången till nästa lager. Detta tenderar att minska effekten av extrema ingångsvärden, vilket gör nätverket något robust mot utjämnare. Parametrarna b1, b2, b3 och w, prickar, w lärs från data. Vikten av vikterna begränsas ofta för att förhindra att de blir för stora. Parametern som begränsar vikterna är känd som sönderfallsparametern och är ofta inställd på att vara lika med 0,1. Vikterna tar först slumpmässiga värden, som sedan uppdateras med hjälp av observerade data. Följaktligen finns det ett element av slumpmässighet i förutsägelserna som produceras av ett neuralt nätverk. Därför är nätverket vanligtvis utbildat flera gånger med olika slumpmässiga utgångspunkter, och resultaten är i genomsnitt. Antalet dolda lager och antalet noder i varje doldt lag måste anges i förväg. Vi kommer att överväga hur dessa kan väljas med hjälp av korsvalidering senare i detta kapitel. Exempel 9.5 Kreditpoäng För att illustrera neurala nätprognoser använder vi det kreditvärderingsexempel som diskuterades i kapitel 5. Där fanns följande linjära regressionsmodell: beta beta x beta x beta 3x3 beta 4x4 e, här betyder logg transformationen logg (x1). Detta kan representeras av nätverket som visas i Figur 9.9 där ingångarna är x1, punkter, x4 och utgången är y. Det mer sofistikerade neurala nätverket som visas i Figur 9.10 kan monteras enligt följande. bibliotek 40 caret 41 creditlog lt - data. ram 40 poäng poängresultat, logg. sparande logg 40 creditsavings 1 41, log. inkomstlogg 40 kreditinkomst 1 41, logg. adress logg 40 credittime. adress 1 41, logg. anställd log 40 credittime. anställd 1 41, fte creditfte, single creditsingle 41 fit lt - avNNet 40 poänglogg. sparande logg. inkomst logg. adress logg. användes. data creditlog, repeats 25. storlek 3. sönderfall 0,1, linout TRUE 41 AvNNet-funktionen från caretpaketet passar ett feed-forward neuralt nätverk med ett doldt lager. Nätverket som anges här innehåller tre noder (storlek3) i det dolda lagret. Decay-parametern har ställts till 0,1. Argumentet repeats25 indikerar att 25 nätverk utbildades och deras förutsägelser ska genomsnittas. Argumentet linoutTRUE indikerar att utgången erhålles med en linjär funktion. I den här boken kommer vi alltid att ange linoutTRUE. Neural network autoregression Med tidsseriedata kan fördröjda värden i tidsserierna användas som ingångar till ett neuralt nätverk. Precis som vi använde fördröjda värden i en linjär autoregressmodell (Kapitel 8) kan vi använda fördröjda värden i en neuralt nätverksautoregression. I den här boken betraktar vi bara feed-forward-nätverk med ett doldt lager och använder notationen NNAR (p, k) för att indikera att det finns p-lagrade ingångar och k-noder i det dolda lagret. Exempelvis är en NNAR-modell (9,5) ett neuralt nätverk med de sista nio observationerna (y, y, prickar, y) som används som ingångar för att prognostisera utgången y t och med fem neuroner i det dolda lagret. En NNAR (p, 0) modell motsvarar en ARIMA (p, 0,0) modell men utan begränsningar på parametrarna för att säkerställa stationäritet. Med säsongsdata är det användbart att även lägga till de senast observerade värdena från samma årstid som ingångar. Till exempel har en NNAR (3,1,2) modell ingångarna y, y, y och y och två neuroner i det dolda lagret. Mer generellt har en NNAR (p, P, k) m-modell ingångar (y, y, prickar, y, y, y, y) och k neuroner i det dolda skiktet. En NNAR (p, P, 0) m modell motsvarar en ARIMA (p, 0,0) (P, 0,0) m modell men utan begränsningar på parametrarna för att säkerställa stationaritet. Funktionen nnetar () passar en NNAR (p, P, k) m modell. Om värdena för p och P inte anges, väljs de automatiskt. För tidsserier utan säsong är standard det optimala antalet lags (enligt AIC) för en linjär AR (p) modell. För säsongens tidsserier är standardvärdena P1 och p är vald från den optimala linjära modellen anpassad till säsongrensade data. Om k inte anges är den inställd på k (pP1) 2 (avrundad till närmsta heltal). Exempel 9.6: Solstrålar Solens yta innehåller magnetiska områden som uppträder som mörka fläckar. Dessa påverkar utbredningen av radiovågor och sålunda telekommunikationsföretag gillar att förutsäga solskyddspotential för att planera för framtida problem. Solspår följer en cykel av längd mellan 9 och 14 år. I Figur 9.11 visas prognoser från en NNAR (9,5) för de närmaste 20 åren. passar lönn 40 solspotarea 41 tomt 40 prognos 40 passform, h 20 41 41 Prognoserna går faktiskt lite negativt, vilket givetvis är omöjligt. Om vi ville begränsa prognoserna för att förbli positiva kunde vi använda en loggomvandling (specificerad av Box-Cox-parametern lambda 0): fit ltnetnetar 40 sunspotarea, lambda 0 41 plot 40 prognos 40 passform, h 20 41 41
No comments:
Post a Comment