tf.train

Modules

 

queue_runner:

Create threads to run multiple enqueue ops.
複数のエンキュー操作を実行するスレッドを作成します

 

Classes

 

AdadeltaOptimizer:

Optimizer that implements the Adadelta algorithm.
AdaDeltaアルゴリズムを実装するオプティマイザ

AdagradDAOptimizer:

Adagrad Dual Averaging algorithm for sparse linear models.
スパース線形モデルのためのAdaGradデュアル平均化アルゴリズム

AdagradOptimizer:

Optimizer that implements the Adagrad algorithm.
AdaGradアルゴリズムを実装するオプティマイザ

AdamOptimizer:

Optimizer that implements the Adam algorithm.
Adamアルゴリズムを実装するオプティマイザ

BytesList:

Defined in tensorflow/core/example/feature.proto.
tensorflow/core/example/feature.proto にて定義されています

CheckpointSaverHook:

Saves checkpoints every N steps or seconds.
チェックポイントをNステップまたは秒ごとに保存します

CheckpointSaverListener:

Interface for listeners that take action before or after checkpoint save.
チェックポイント保存の前後にアクションをとるリスナーのインターフェース

ChiefSessionCreator:

Creates a tf.Session for a chief.
チーフのセッションを作成します

ClusterDef:

Defined in tensorflow/core/protobuf/cluster.proto.
tensorflow/core/protobuf/cluster.proto にて定義されています

ClusterSpec:

Represents a cluster as a set of “tasks”, organized into “jobs”.
クラスタを一連の「タスク」として表現し、「ジョブ」に編成します

Coordinator:

A coordinator for threads.
スレッドのコーディネーター

Example:

Defined in tensorflow/core/example/example.proto.
tensorflow/core/example/example.proto にて定義されています

ExponentialMovingAverage:

Maintains moving averages of variables by employing an exponential decay.
指数関数的減衰を使用して変数の移動平均を維持します

Feature:

Defined in tensorflow/core/example/feature.proto.
tensorflow/core/example/feature.proto にて定義されています

FeatureList:

Defined in tensorflow/core/example/feature.proto.
tensorflow/core/example/feature.proto にて定義されています

FeatureLists:

Defined in tensorflow/core/example/feature.proto.
tensorflow/core/example/feature.proto にて定義されています

child class FeatureListEntry

Features:

Defined in tensorflow/core/example/feature.proto.
tensorflow/core/example/feature.proto にて定義されています

child class FeatureEntry

FeedFnHook:

Runs feed_fn and sets the feed_dict accordingly.
feed_fnを実行し、それに応じてfeed_dictを設定します

FinalOpsHook:

A hook which evaluates Tensors at the end of a session.
セッション終了時にTensorsを評価するフック

FloatList:

Defined in tensorflow/core/example/feature.proto.
tensorflow/core/example/feature.proto にて定義されています

FtrlOptimizer:

Optimizer that implements the FTRL algorithm.
FTRLアルゴリズムを実装するオプティマイザ

GlobalStepWaiterHook:

Delays execution until global step reaches wait_until_step.
グローバル・ステップがwait_until_stepに達するまで実行を遅延させます

GradientDescentOptimizer:

Optimizer that implements the gradient descent algorithm.
勾配降下アルゴリズムを実装するオプティマイザ

Int64List:

Defined in tensorflow/core/example/feature.proto.
tensorflow/core/example/feature.proto にて定義されています

JobDef:

Defined in tensorflow/core/protobuf/cluster.proto.
tensorflow/core/protobuf/cluster.proto にて定義されています

child class TasksEntry

LoggingTensorHook:

Prints the given tensors every N local steps, every N seconds, or at end.
指定されたテンソルをN個のローカルステップごとに、N秒ごとに、または最後に出力します

LooperThread:

A thread that runs code repeatedly, optionally on a timer.
オプションでタイマーに従ってコードを繰り返し実行するスレッド

MomentumOptimizer:

Optimizer that implements the Momentum algorithm.
モーメンタム(慣性)アルゴリズムを実装するオプティマイザ

MonitoredSession:

Session-like object that handles initialization, recovery and hooks.
初期化、回復、フックを処理するセッションのようなオブジェクト

NanLossDuringTrainingError:

Defined in tensorflow/python/training/basic_session_run_hooks.py.
tensorflow/python/training/basic_session_run_hooks.py にて定義されています

NanTensorHook:

Monitors the loss tensor and stops training if loss is NaN.
損失テンソルを監視し、損失がNaNの場合はトレーニングを停止します

Optimizer:

Base class for optimizers.
オプティマイザの基本クラス

ProfilerHook:

Captures CPU/GPU profiling information every N steps or seconds.
CPU/GPUプロファイリング情報をNステップまたはN秒ごとにキャプチャします

ProximalAdagradOptimizer:

Optimizer that implements the Proximal Adagrad algorithm.
Proximal AdaGradアルゴリズムを実装するオプティマイザ

ProximalGradientDescentOptimizer:

Optimizer that implements the proximal gradient descent algorithm.
近位勾配降下アルゴリズムを実装するオプティマイザ

QueueRunner:

Holds a list of enqueue operations for a queue, each to be run in a thread.
キューのエンキュー操作のリストを保持し、それぞれがスレッド内で実行されます

RMSPropOptimizer:

Optimizer that implements the RMSProp algorithm.
RMSPropアルゴリズムを実装するオプティマイザ

Saver:

Saves and restores variables.
変数を保存および復元します

SaverDef:

Defined in tensorflow/core/protobuf/saver.proto.
tensorflow/core/protobuf/saver.proto にて定義されています

Scaffold:

Structure to create or gather pieces commonly needed to train a model.
モデルを訓練するために一般的に必要な部分を作成または収集する構造

SecondOrStepTimer:

Timer that triggers at most once every N seconds or once every N steps.
最多でN秒に1回またはN回に1回トリガーするタイマー

SequenceExample:

Defined in tensorflow/core/example/example.proto.
tensorflow/core/example/example.proto にて定義されています

Server:

An in-process TensorFlow server, for use in distributed training.
分散型トレーニングで使用するインプロセスTensorFlowサーバー

ServerDef:

Defined in tensorflow/core/protobuf/tensorflow_server.proto.
tensorflow/core/protobuf/tensorflow_server.proto で定義されています

SessionCreator:

A factory for tf.Session.
セッションのためのファクトリ

SessionManager:

Training helper that restores from checkpoint and creates session.
チェックポイントから復元してセッションを作成するヘルパーを訓練する

SessionRunArgs:

Represents arguments to be added to a Session.run() call.
Session.run()コールに追加される引数を表します

SessionRunContext:

Provides information about the session.run() call being made.
行われたsession.run()コールに関する情報を提供します

SessionRunHook:

Hook to extend calls to MonitoredSession.run().
MonitoredSession.run()へのコールを継承するためのフック

SessionRunValues:

Contains the results of Session.run().
Session.run()の結果が含まれます

SingularMonitoredSession:

Session-like object that handles initialization, restoring, and hooks.
初期化、復元、フックを処理するセッションのようなオブジェクト

StepCounterHook:

Hook that counts steps per second.
1秒あたりのステップ数をカウントするフック

StopAtStepHook:

Hook that requests stop at a specified step.
リクエストが特定のステップ数で停止するフック

SummarySaverHook:

Saves summaries every N steps.
Nステップごとにサマリーを保存します

Supervisor:

A training helper that checkpoints models and computes summaries.
モデルをチェックポイントし、要約を計算する訓練ヘルパー

SyncReplicasOptimizer:

Class to synchronize, aggregate gradients and pass them to the optimizer.
同期化し、グラデーションを集約し、オプティマイザに渡すクラス

WorkerSessionCreator:

Creates a tf.Session for a worker.
ワーカーのtf.Sessionを作成します

 

Functions

 

MonitoredTrainingSession(…):

Creates a MonitoredSession for training.
トレーニングのためにMonitoredSessionを作成します

NewCheckpointReader(…):

Defined in tensorflow/python/pywrap_tensorflow_internal.py.
tensorflow/python/pywrap_tensorflow_internal.py にて定義されています

add_queue_runner(…):

Adds a QueueRunner to a collection in the graph.
QueueRunnerをグラフのコレクションに追加します

assert_global_step(…):

Asserts global_step_tensor is a scalar int Variable or Tensor.
アサーションglobal_step_tensorはスカラーint変数またはテンソルです

basic_train_loop(…):

Basic loop to train a model.
モデルを訓練するための基本ループ

batch(…):

Creates batches of tensors in tensors.
テンソルのバッチをテンソルで作成します

batch_join(…):

Runs a list of tensors to fill a queue to create batches of examples.
バッチのサンプルを作成するキューを満たすテンソルのリストを実行します

checkpoint_exists(…):

Checks whether a V1 or V2 checkpoint exists with the specified prefix.
指定されたプレフィックスを持つV1またはV2チェックポイントが存在するかどうかをチェックします

cosine_decay(…):

Applies cosine decay to the learning rate.
学習率に余弦(コサイン)減衰を適用します

cosine_decay_restarts(…):

Applies cosine decay with restarts to the learning rate.
学習率に再始動しながら余弦(コサイン)減衰を適用します

create_global_step(…):

Create global step tensor in graph.
グラフ内にグローバルステップテンソルを作成します

do_quantize_training_on_graphdef(…):

Defined in tensorflow/python/pywrap_tensorflow_internal.py.
tensorflow/python/pywrap_tensorflow_internal.py にて定義されています

exponential_decay(…):

Applies exponential decay to the learning rate.
学習率に指数関数的減衰を適用します

export_meta_graph(…):

Returns MetaGraphDef proto. Optionally writes it to filename.
MetaGraphDefプロトを返し、必要に応じてfilenameに書き出します

generate_checkpoint_state_proto(…):

Generates a checkpoint state proto.
プロトのチェックポイント状態を生成します

get_checkpoint_mtimes(…):

Returns the mtimes (modification timestamps) of the checkpoints.
チェックポイントのmtimes(変更タイムスタンプ)を返します

get_checkpoint_state(…):

Returns CheckpointState proto from the “checkpoint” file.
“checkpoint”ファイルからCheckpointStateプロトを返します

get_global_step(…):

Get the global step tensor.
グローバルステップテンソルを取得します

get_or_create_global_step(…):

Returns and create (if necessary) the global step tensor.
グローバルステップテンソルを返し、必要に応じて作成します

global_step(…):

Small helper to get the global step.
グローバルなステップを得るための小さなヘルパー

import_meta_graph(…):

Recreates a Graph saved in a MetaGraphDef proto.
MetaGraphDefプロトに保存されたグラフを再作成します

init_from_checkpoint(…):

Initializes current variables with tensors loaded from given checkpoint.
与えられたチェックポイントからロードされたテンソルで現在の変数を初期化します

input_producer(…):

Output the rows of input_tensor to a queue for an input pipeline.
input_tensorの行を入力パイプラインのキューに出力します

inverse_time_decay(…):

Applies inverse time decay to the initial learning rate.
最初の学習率に逆時間減衰を適用します

latest_checkpoint(…):

Finds the filename of latest saved checkpoint file.
最後に保存されたチェックポイントファイルのファイル名を検索します

limit_epochs(…):

Returns tensor num_epochs times and then raises an OutOfRange error.
テンソルnum_epochs回を返し、OutOfRangeエラーを発生させます

linear_cosine_decay(…):

Applies linear cosine decay to the learning rate.
学習率に線形コサイン減衰を適用します

list_variables(…):

Returns list of all variables in the checkpoint.
チェックポイント内のすべての変数のリストを返します

load_checkpoint(…):

Returns CheckpointReader for checkpoint found in ckpt_dir_or_file.
ckpt_dir_or_fileにあるチェックポイントのCheckpointReaderを返します

load_variable(…):

Returns the tensor value of the given variable in the checkpoint.
チェックポイント内の与えられた変数のテンソル値を返します

match_filenames_once(…):

Save the list of files matching pattern, so it is only computed once.
パターンに一致するファイルのリストを保存します(一度だけ計算されます)

maybe_batch(…):

Conditionally creates batches of tensors based on keep_input.
keep_inputに基づいてテンソルのバッチを条件付きで作成します

maybe_batch_join(…):

Runs a list of tensors to conditionally fill a queue to create batches.
キューを条件付きで満たすためにテンソルのリストを実行し、バッチを作成します

maybe_shuffle_batch(…):

Creates batches by randomly shuffling conditionally-enqueued tensors.
条件付きエンキューテンソルをランダムにシャッフルしてバッチを作成します

maybe_shuffle_batch_join(…):

Create batches by randomly shuffling conditionally-enqueued tensors.
条件付きでエンキューされたテンソルをランダムにシャッフルしてバッチを作成します

natural_exp_decay(…):

Applies natural exponential decay to the initial learning rate.
最初の学習率に自然指数関数的減衰を適用します

noisy_linear_cosine_decay(…):

Applies noisy linear cosine decay to the learning rate.
ノイズの多い線形余弦減衰を学習率に適用します

piecewise_constant(…):

Piecewise constant from boundaries and interval values.
境界値と区間値からのピース単位の定数

polynomial_decay(…):

Applies a polynomial decay to the learning rate.
学習率に多項式減衰を適用します

range_input_producer(…):

Produces the integers from 0 to limit-1 in a queue.
キュー内の0からlimit-1までの整数を生成します

replica_device_setter(…):

Return a device function to use when building a Graph for replicas.
レプリカのグラフを作成するときに使用するデバイス関数を返します

sdca_fprint(…):

Computes fingerprints of the input strings.
入力文字列のフィンガープリントを計算します

sdca_optimizer(…):

Distributed version of Stochastic Dual Coordinate Ascent (SDCA) optimizer for linear models with L1 + L2 regularization.
L1 + L2正則化を用いた線形モデルのストキャスティクスのデュアル座標アセント二項分類(SDCA)オプティマイザの分散バージョン

sdca_shrink_l1(…):

Applies L1 regularization shrink step on the parameters.
L1正則化シュリンクステップをパラメータに適用します

shuffle_batch(…):

Creates batches by randomly shuffling tensors.
テンソルをランダムに入れ替えてバッチを作成します

shuffle_batch_join(…):

Create batches by randomly shuffling tensors.
テンソルをランダムに入れ替えてバッチを作成します

slice_input_producer(…):

Produces a slice of each Tensor in tensor_list.
tensor_listに各テンソルのスライスを作成します

start_queue_runners(…):

Starts all queue runners collected in the graph.
グラフで収集されたすべてのキューランナーを開始します

string_input_producer(…):

Output strings (e.g. filenames) to a queue for an input pipeline.
入力パイプラインの文字列(たとえば、ファイル名)をキューに出力します

summary_iterator(…):

An iterator for reading Event protocol buffers from an event file.
イベントファイルからイベントプロトコルバッファを読み込むためのイテレータ

update_checkpoint_state(…):

Updates the content of the ‘checkpoint’ file.
‘チェックポイント’ファイルの内容を更新します

write_graph(…):

Writes a graph proto to a file.
グラフプロトをファイルに書き込みます