AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑮

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回からはそのうちの3番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを300日分移動したものを使用します。

56行目で、検証データの位置を300日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2018-05-12 ~ 2019-03-08] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+300, idx2+300), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(2, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


すごい安定した好成績を叩き出しております。

なんといいますかこの学習済みモデルは、期待をいつも裏切ってくるので面白いです。

絶対勝つべきデータでダメダメだったのに、期待しないで検証を続けたら次第に投資成績をあげてくるっていう・・・・。

正直この先どんな成績になるかまったく予想もできませんが検証を続けます。

次回は検証データを400日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑭

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回からはそのうちの3番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを200日分移動したものを使用します。

56行目で、検証データの位置を200日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2018-02-01 ~ 2018-11-28] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+200, idx2+200), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(2, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


前回の結果に引き続き、全勝の好成績です。

ここまでくると最初の検証(2020/09/16)でなぜ成績が悪かったのかが不思議なくらいです。

(検証をやり直したほうがいいのかもしれません・・・・・。)

次回は検証データを300日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑬

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回からはそのうちの3番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを100日分移動したものを使用します。

56行目で、検証データの位置を100日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2017-10-24 ~ 2018-08-20] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+100, idx2+100), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(2, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


なんというかまたまたよく分からない結果となりました。

昨日はあんなに負けてたのに今回は相当優秀な投資成績となりました。

学習データと検証データは、3分の2が被っていて3分の1が未知のデータとなっているので、良い結果になるのは当たり前かとも思うのですが、100%被っていた昨日はどうしてぼろぼろだったんでしょうか?

また強化学習の深い沼にのめりこみそうです。。。。

次回は検証データを200日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑫

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回からはそのうちの3番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

学習データと検証データは同じものを使いました。間違いなく勝てるはずのずるいデータ設定となっています。(;^_^A

90行目で、学習済みモデルの3番目を指定しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+0, idx2+0), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(2, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


えっ・・・・。学習データと全く同じ検証データを使っているのに、勝ったり負けたりで全くダメな投資成績となりました。

こんなこともあるんですね。まったく学習できていないということでしょうか。

いや、むしろこれから検証データを変えていくことによってどのように投資成績が変わっていくのか少し興味が持てました。

次回は検証データを100日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑪

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回はそのうちの2番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを800日分移動したものを使用します。

56行目で、検証データの位置を800日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2019-09-24 ~ 2020-07-20] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+800, idx2+800), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(1, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


学習データと被っていない検証データを使った場合では、一番の好成績となりました。

これほどの成績だと実運用を考えたい衝動にかられますが、9月11日の検証ではほぼ全敗だったのでなかなか怖いものがあります。

次回からは学習済みモデルを変えて、同じ30回検証を行っていきたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑩

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回はそのうちの2番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを700日分移動したものを使用します。

56行目で、検証データの位置を700日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2019-06-16 ~ 2020-04-11] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+700, idx2+700), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(1, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


トータルの成績としては前回の結果には及ばないものの、全戦プラス収益となりました。

ビットコインがどのように推移しているのか分かりませんが、おそらく前回と同じような推移のため全プラス収益となったと思われます。
・・・ローソク足を表示すればいいだけですよね。そのうち表示します(;^_^A

次回は検証データを800日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑨

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回はそのうちの2番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを600日分移動したものを使用します。

56行目で、検証データの位置を600日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2019-03-08 ~ 2020-01-02] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+600, idx2+600), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(1, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


前回もなかなか好成績でしたが、今回はより好成績・・・というか全勝です。

ばらつきはあるにせよ30回全てプラス収益となるのはうれしいものです。

強化学習アルゴリズムACKTRは、はまると安定した好成績になる傾向があると思います。

次回は検証データを700日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑧

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回はそのうちの2番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを500日分移動したものを使用します。

56行目で、検証データの位置を500日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2018-11-28 ~ 2019-09-24] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+500, idx2+500), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(1, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


前回は大負けの結果でしたが、今回はなかなかの好成績となりました。

学習データとは重なることのない検証データを使っているので、実際に運用可能な手法です。

次回は検証データを600日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑦

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回はそのうちの2番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを400日分移動したものを使用します。

56行目で、検証データの位置を400日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2018-08-20 ~ 2019-06-16] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+400, idx2+400), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(1, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


ほとんどの検証で損失を出していますが、たまに少なめの収益をだしています。

これまでの結果と大きく違うのは、投資結果に統一性がなくばらばらということです。

学習データと検証データは前回の検証から期間が重なってないのでそのためでしょうか。

そういう意味では、過学習といいますか未知のデータに対してはまったく使い物にならない学習アルゴリズム(ACKTR)だということになってしまいます。

次回は検証データを500日分移動して同じ30回検証を行ってみたいと思います。

AnyTrading - ビットコイン投資を強化学習で実行 ACKTR編⑥

9月6日の記事にて学習済みアルゴリズムをACKTRにかえてビットコインの学習済みモデルを10種類作成しました。

今回はそのうちの2番目の学習済みモデルに対して、30回連続で投資検証を行います。

強化学習のパラメータ

強化学習時のパラメータと学習用・検証用データスパンは下記の通りです。

検証データには学習データを300日分移動したものを使用します。

56行目で、検証データの位置を300日分後ろに移動しています。

  • 学習アルゴリズム
    ACKTR

  • 参照する直前データ数
    50

  • 学習データ
    [2017-07-14 ~ 2018-05-12] 1日足データ

  • 検証データ
    [2018-05-12 ~ 2019-03-08] 1日足データ

ソース

ソースは下記の通りです。

[ソース]

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
import os, gym
import datetime
import gym_anytrading
import matplotlib.pyplot as plt
from gym_anytrading.envs import TradingEnv, ForexEnv, StocksEnv, Actions, Positions
from gym_anytrading.datasets import FOREX_EURUSD_1H_ASK, STOCKS_GOOGL
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2
from stable_baselines import ACKTR
from stable_baselines.bench import Monitor
from stable_baselines.common import set_global_seeds

import numpy as np
import matplotlib.pyplot as plt

def simulation(i, window_size):
global means
# ログフォルダの生成
log_dir = './logs/'
os.makedirs(log_dir, exist_ok=True)

# [20] 2020-06-28 10:00
idx1 = 50
#
idx2 = 350
# データ数
span = idx2 - idx1

# 環境の生成
env = gym.make('forex-v0', frame_bound=(idx1, idx2), window_size=window_size)
env = Monitor(env, log_dir, allow_early_resets=True)

# シードの指定
env.seed(0)
set_global_seeds(0)

# ベクトル化環境の生成
env = DummyVecEnv([lambda: env])

# モデルの生成
#model = PPO2('MlpPolicy', env, verbose=1)
model = ACKTR('MlpPolicy', env, verbose=1)

# モデルの読み込み
#model = PPO2.load('trading_model{}'.format(i))
model = ACKTR.load('trading_model{}'.format(i))

# モデルの学習
#model.learn(total_timesteps=128000)

# モデルの保存
#model.save('trading_model{}'.format(i))

# モデルのテスト
#env = gym.make('forex-v0', frame_bound=(idx2+500, idx2 + span+500), window_size=20)
env = gym.make('forex-v0', frame_bound=(idx1+300, idx2+300), window_size=window_size)
env.seed(0)
state = env.reset()
while True:
# 行動の取得
action, _ = model.predict(state)
# 1ステップ実行
state, reward, done, info = env.step(action)
# エピソード完了
if done:
print('info:', info, info['total_reward'])
means.append(info['total_reward'])
break
# グラフのプロット
plt.cla()
env.render_all()
#plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))
#plt.show()

#with open('C:/Util/anaconda3/envs/openai_gym/lib/site-packages/gym_anytrading/datasets/data/FOREX_EURUSD_1H_ASK.csv', 'r') as f:
# lines = f.readlines()
# s1 = lines[idx1].split(',')[0]
# s2 = lines[idx2-1].split(',')[0]
# #print(s1,s2, (idx2 - idx1))
#
# s3 = lines[idx2].split(',')[0]
# s4 = lines[idx2+span].split(',')[0]
# #print(s3,s4, (idx2+span - idx2))

labels = []
means = []

for i in range(50):
labels.append('{}'.format(i))
simulation(1, 50)

x = np.arange(len(labels))
width = 0.35

fig, ax = plt.subplots()

rect = ax.bar(x, means, width)
ax.set_xticks(x)
ax.set_xticklabels(labels)

#plt.show()
plt.savefig('trading{:%Y%m%d_%H%M%S}.png'.format(datetime.datetime.now()))

実行結果

実行結果は次のようになりました。

実行結果


面白い結果がでました。これまで完全無欠のモデルだと思っていたのに完全敗北しています。

結果に多少の誤差はありますが、安定した損失結果です。

次回は検証データを400日分移動して同じ30回検証を行ってみたいと思います。