Sequentialモデルの API

はじめに、 KerasのSequentialモデルのガイド をご覧下さい。

モデルの有用な属性

  • model.layers は、モデルに加えたレイヤーのリストです。

Sequentialモデルのメソッド

compile

compile(self, optimizer, loss, metrics=[], sample_weight_mode=None)

学習過程の設定。

引数

  • optimizer: 文字列型str (optimizer の名前) あるいは optimizer のオブジェクト。 optimizers をご覧下さい。
  • loss: 文字列型 str (objective 関数の名前) あるいは objective 関数。 objectives をご覧下さい。
  • metrics: 訓練や検証の際にモデルを評価するためのメトリックのリスト 典型的には metrics=['accuracy']を使用するでしょう。
  • sample_weight_mode: もし時間ごとのサンプルの重み付け (2次元の重み) を行う必要があれば "temporal" と設定して下さい。 "None" の場合、サンプルへの (1次元) 重み付けを既定値としています。
  • kwargs: Theano がバックエンドの場合、 これらは K.function に渡されます。 Tensorflow がバックエンドの場合は無視されます。

    model = Sequential()
    model.add(Dense(32, input_shape=(500,)))
    model.add(Dense(10, activation='softmax'))
    model.compile(optimizer='rmsprop',
          loss='categorical_crossentropy',
          metrics=['accuracy'])

fit

fit(self, x, y, batch_size=32, nb_epoch=10, verbose=1, callbacks=[], validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None)

固定のエポック数でモデルを学習する。

引数

  • x: 入力データ、形式は Numpy 配列、あるいは Numpy 配列のリスト (モデルに複数の入力がある場合)。
  • y: ラベル、形式は Numpy 配列。
  • batch_size: 整数値で、設定したサンプル数ごとに勾配の更新を行います。
  • nb_epoch: 整数値で、モデルを学習するエポック数。
  • verbose: 0 とすると標準出力にログを出力しません。 1 の場合はログをプログレスバーで標準出力、2 の場合はエポックごとに 1 行のログを出力します。
  • callbacks: keras.callbacks.Callback にあるインスタンスのリスト。 トレーニングの間 callbacks のリストを適用します。 callbacksをご覧下さい。
  • validation_split: float (0. < x < 1) 型で、 ホールドアウト検証のデータとして使うデータの割合。
  • validation_data: ホールドアウト検証用データとして使うデータのタプル (X, y)。 設定すると validation_split を無視します。
  • shuffle: boolean 型もしくは str 型 (for 'batch')。 各エポックにおいてサンプルをシャッフルするかどうか。 'batch' は HDF5 データだけに使える特別なオプションです。バッチサイズのチャンクの中においてシャッフルします。
  • class_weight: dictionary 型で、クラス毎の重みを格納します。 (学習の間だけ) 損失関数をスケーリングするために使います。
  • sample_weight: 入力サンプルと同じ長さの1次元の Numpy の配列で、学習のサンプルに対する重みを格納します。 これは損失関数をスケーリングするために (学習の間だけ) 使用します。
    • (重みとサンプルの間における1:1 の写像), あるいは系列データの場合において、2次元配列の (samples, sequence_length) という形式で、 すべてのサンプルの各時間において異なる重みを適用できます。 この場合、compile() の中で sample_weight_mode="temporal" と確実に明記すべきです。

返り値

History オブジェクト。 History.history 属性は 実行に成功したエポックにおける学習の損失値とメトリックの値の記録と、(適用可能ならば) 検証における損失値とメトリックの値も記録しています。


evaluate

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

バッチごとにある入力データにおける損失値を計算します。

引数

  • x: 入力データ、Numpy 配列あるいは Numpy 配列のリスト (モデルに複数の入力がある場合)。
  • y: ラベル、Numpy 配列の形式。
  • batch_size: 整数値で、指定したサンプル数で勾配の更新を行います。
  • verbose: 進行状況メッセージ出力モードで、0 または 1。
  • sample_weight: サンプルの重み、Numpy 配列の形式。

返り値

スカラーで、テストデータの損失値(モデルのメトリックを設定していない場合) あるいはスカラーのリスト(モデルが他のメトリックを計算している場合)。 属性 model.metrics_names により、スカラーの出力でラベルを表示します。


predict

predict(self, x, batch_size=32, verbose=0)

入力サンプルに対する予測値の出力を生成し、サンプルを加工してバッチ処理します。

引数

  • x: 入力データで、Numpy 配列の形式。
  • batch_size: 整数値。
  • verbose: 進行状況メッセージ出力モード、0 または 1。

返り値

予測値を格納した Numpy 配列。


predict_classes

predict_classes(self, x, batch_size=32, verbose=1)

バッチごとに入力サンプルに対するクラスの予測を生成します。

引数

  • x: 入力データ、Numpy 配列または Numpy 配列のリスト (モデルに複数の入力がある場合)。
  • batch_size: 整数値。
  • verbose: 進行状況メッセージ出力モード、0 または 1。

返り値

属するクラスの予測を格納した Numpy 配列。


predict_proba

predict_proba(self, x, batch_size=32, verbose=1)

バッチごとに入力サンプルに対する各々のクラスに所属する確率の予測値を生成します。

引数

  • x: 入力データ、Numpy 配列または Numpy 配列のリスト (モデルに複数の入力がある場合)。
  • batch_size: 整数値。
  • verbose: 進行状況メッセージ出力モード、0 または 1。

返り値

確率の予測値を格納した Numpy 配列。


train_on_batch

train_on_batch(self, x, y, class_weight=None, sample_weight=None)

サンプル中の1つのバッチで勾配を更新します。

引数

  • x: 入力データ、Numpy 配列または Numpy 配列のリスト (モデルに複数の入力がある場合)。
  • y: ラベル、Numpy 配列の形式。
  • class_weight: dictionary 型で、クラス毎の重みを格納します。 (学習の間だけ) 損失関数をスケーリングするために使います。
  • sample_weight: サンプルの重み、Numpy 配列の形式。

返り値

スカラーでトレーニングの損失値 (モデルにメトリックが設定されていない場合) あるいはスカラーのリスト (モデルが他のメトリックを計算している場合)。 属性 model.metrics_names により、スカラーの出力でラベルを表示する。


test_on_batch

test_on_batch(self, x, y, sample_weight=None)

サンプルの単一バッチにおけるモデルの評価を行います。

引数

  • x: 入力データ、Numpy 配列または Numpy 配列のリスト (モデルに複数の入力がある場合)。
  • y: ラベル、Numpy 配列の形式。
  • sample_weight: サンプルの重み、Numpy 配列の形式。

返り値

スカラーで、テストの損失値 (モデルにメトリックが設定されていない場合) あるいはスカラーのリスト (モデルが他のメトリックを計算している場合)。 属性 model.metrics_names により、スカラーの出力でラベルを表示する。


predict_on_batch

predict_on_batch(self, x)

サンプルの単一のバッチに対する予測値を返します。


fit_generator

fit_generator(self, generator, samples_per_epoch, nb_epoch, verbose=1, callbacks=[], validation_data=None, nb_val_samples=None, class_weight=None, max_q_size=10, nb_worker=1, pickle_safe=False)

Python のジェネレータにより、バッチごとに生成されるデータでモデルを学習させます。 ジェネレータは効率化のために、モデルを並列に実行します。 たとえば、これを使えば CPU 上でリアルタイムに画像データを読み出しながら、それと並行して GPU 上でモデルを学習できます。

引数

  • generator: ジェネレータ。 ジェネレータの出力は以下のいずれかでなければならず、どの配列も同数のサンプルを含まなければなりません。
    • タプル (inputs, targets)
    • タプル (inputs, targets, sample_weights)。 ジェネレータは永遠にそのデータを繰り返すことを期待されています。 samples_per_epoch 数のサンプルが、そのモデルによって確認されたときにエポックが終了します。
  • samples_per_epoch: 整数値で、エポック毎に使用されるサンプル数。
  • nb_epoch: 整数値で、データのイテレーションの総数。
  • verbose: 進行状況メッセージ出力モードで、0、1、あるいは 2。
  • callbacks: callbacks のリストで、学習の際に呼び出されます。
  • validation_data: 以下のいずれかです。
    • 検証用データのジェネレータ
    • タプル (inputs, targets)
    • タプル (inputs, targets, sample_weights)。
  • nb_val_samples: validation_data がジェネレータである場合だけ関係があります。 各エポックの終わりに検証用ジェネレータから使用するサンプル数です。
  • class_weight: dictionary 型で、クラス毎の重みを格納します。 (学習の間だけ) 損失関数をスケーリングするために使います。
  • max_q_size: ジェネレータのキューの最大サイズ。
  • nb_worker: スレッドベースのプロセス使用時の最大プロセス数
  • pickle_safe: Trueならスレッドベースのプロセスを使います.実装がmultiprocessingに依存しているため,子プロセスに簡単に渡すことができないものとしてPickableでない引数をgeneratorに渡すべきではないことに注意してください.

返り値

History オブジェクト。

def generate_arrays_from_file(path):
    while 1:
    f = open(path)
    for line in f:
        # create numpy arrays of input data
        # and labels, from each line in the file
        x, y = process_line(line)
        yield (x, y)
    f.close()

model.fit_generator(generate_arrays_from_file('/my_file.txt'),
        samples_per_epoch=10000, nb_epoch=10)

evaluate_generator

evaluate_generator(self, generator, val_samples, max_q_size=10, nb_worker=1, pickle_safe=False)

ジェネレータのデータによってモデルを評価します。ジェネレータは test_on_batch が受け取るデータと同じ種類のデータを返却するべきです。

引数

  • generator: (inputs, targets)あるいは(inputs, targets, sample_weights)のタプルを生成するジェネレーター.
  • val_samples: 値を返すまでに generator により生成されるサンプルの総数
  • max_q_size: ジェネレータのキューの最大サイズ
  • nb_worker: スレッドベースのプロセス使用時の最大プロセス数
  • pickle_safe: Trueならスレッドベースのプロセスを使います.実装がmultiprocessingに依存しているため,子プロセスに簡単に渡すことができないものとしてPickableでない引数をgeneratorに渡すべきではないことに注意してください.

predict_generator

predict_generator(self, generator, val_samples, max_q_size=10, nb_worker=1, pickle_safe=False)

ジェネレータのデータに対して予測します。ジェネレータは predict_on_batch が受け取るデータと同じ種類のデータを返却するべきです。

引数

  • generator: (inputs, targets)あるいは(inputs, targets, sample_weights)のタプルを生成するジェネレーター.
  • val_samples: 値を返すまでに generator により生成されるサンプルの総数
  • max_q_size: ジェネレータのキューの最大サイズ
  • nb_worker: スレッドベースのプロセス使用時の最大プロセス数
  • pickle_safe: Trueならスレッドベースのプロセスを使います.実装がmultiprocessingに依存しているため,子プロセスに簡単に渡すことができないものとしてPickableでない引数をgeneratorに渡すべきではないことに注意してください.

返り値

予測値のNumpy配列.