logo

TensorBoard

A TensorFlow egy vizualizációs eszköz, amelyet TensorBoard-nak hívnak. Az adatfolyam-gráf elemzésére és a gépi tanulási modellek megértésére használják. A TensorBoard a grafikon megjelenítésére szolgáló felület, valamint számos eszköz a modell megértéséhez, hibakereséséhez és optimalizálásához.

A TensorBoard fontos jellemzője, hogy különböző típusú statisztikákat tartalmaz a függőleges igazításban lévő grafikonok paramétereiről és részleteiről.

Hogyan lehet letölteni a youtube videót vlc

A mély neurális hálózat akár 36.000 csomópontok. A TensorFlow segít ezeknek a csomópontoknak a magas szintű összecsukásában, magas szintű blokkokban történő összecsukásában, és kiemeli az azonos struktúrákat. Ez lehetővé teszi a grafikon jobb elemzését, a számítási gráf elsődleges szakaszaira összpontosítva.

TensorBoard

A TensorBoard vizualizációról azt mondják, hogy nagyon interaktív, ahol a felhasználó pásztázhatja, nagyíthatja és kibonthatja a csomópontokat a részletek megjelenítéséhez.

Az alábbiakban a megadott diagramábrázolás mutatja be a TensorBoard vizualizáció teljes működését-

TensorBoard

Az algoritmusok a csomópontokat magas szintű blokkokra bontják, és azonos szerkezetű csoportokat emeltek ki, amelyek elválasztják a magas fokú csomópontokat. A létrehozott TensorBoard hasznos, és ugyanolyan fontosnak tartják a gépi tanulási modell hangolásában. Ez a megjelenítő eszköz a konfigurációs naplófájlhoz készült.

Nézd meg az alábbi képet:

TensorBoard

Egy neurális hálózat dönti el, hogyan kapcsolja össze a különböző neuronok és hány réteggel, mielőtt a modell megjósolhatja az eredményt. Miután meghatároztuk az architektúrát, nemcsak a modellt kell betanítanunk, hanem a metrikákat is az előrejelzés pontosságának kiszámításához. Ezt a mérőszámot veszteségfüggvénynek nevezik. A cél a veszteségfüggvény.

A TensorBoard nagyszerű eszköz a mutatók megjelenítésére és a lehetséges problémák kiemelésére. A neurális hálózatnak órákig vagy hetekig tarthat, mire megoldást talál. A TensorBoard nagyon gyakran frissíti a paramétereket.

A TensorBoard ezen az URL-en található: http://localhost:6006

A DashBoard típusai a TensorBoardban

TensorBoard

1. Scalar Dashboard

Az időfüggő statisztikák megjelenítésére szolgál; például érdemes lehet megvizsgálni a tanulási sebesség vagy a veszteségfüggvény változásait.

2. Hisztogram

A TensorBoard hisztogram-műszerfala megmutatja, hogyan változott a Tensor statisztikai eloszlása ​​az idők során. keresztül rögzített adatokat jeleníti meg tf.summary.histogram .

tartalmazza a c programozást

3. Elosztási irányítópult

Ez azt mutatja, néhány magas szintű használatát tf.summary.histogram . Néhány magas szintű indulást mutat egy disztribúción. A diagram minden sora utalást ad az adatok százalékos eloszlására vonatkozóan.

4. Kép-műszerfal

Ez azt a png-t mutatja, amelyet a tf.summary.image . A sorok a címkéknek, az oszlopok pedig a futtatásnak felelnek meg. A TensorBoard kép-irányítópultjának használatával egyéni vizualizációkat ágyazhatunk be.

5. Audio Dashboard

Kiváló eszköz a lejátszható audio widgetek beágyazásához az a tf.summary.audio . Az irányítópult minden címkéhez mindig a legújabb hanganyagot tartalmazza.

6. Graph Explorer

Elsősorban a TensorFlow modell vizsgálatának lehetővé tételére szolgál.

7. Projektor

A TensorFlow beágyazó projektor többdimenziós adatokhoz használható. A beágyazó projektor adatokat olvas be az ellenőrzőpont fájlból, és beállítható a megfelelő adatokkal, például egy szókincsfájllal.

8. Szöveges irányítópult

A szöveges irányítópult a következőn keresztül mentett szövegszakértőket jeleníti meg tf.summary.text. , olyan funkciókat tartalmaz, mint a hiperhivatkozások, listák és táblázatok, mindegyik támogatott.

TensorBoard

A TensorBoard különböző nézetei

A különböző nézetek különböző formátumú bemeneteket vesznek fel, és eltérően jelenítik meg azokat. A narancssárga felső sávon módosíthatjuk őket.

    skalárok-Vizualizálja a skaláris értékeket, például az osztályozási pontosságot.Grafikon-Vizualizálja modellünk számítási gráfját, mint a neurális hálózati modellt.Elosztások-Képzelje el, hogyan változnak az adatok az idő múlásával, például egy neurális hálózat súlya.hisztogramok-Az eloszlás szebb nézete, amely az eloszlásokat háromdimenziós perspektívában mutatja be.projektor-Használható szóbeágyazások megjelenítésére (vagyis a szóbeágyazás szavak numerikus reprezentációi, amelyek megragadják azok szemantikai kapcsolatait)Kép-Képadatok megjelenítéseHang-Hangadatok megjelenítéseSzöveg-Szöveges adatok megjelenítése

Hogyan kell használni a TensorBoard-ot?

Megtanuljuk, hogyan lehet megnyitni a TensorBoard-ot a terminálról MacOS és parancssori Windows esetén.

A kódot egy későbbi oktatóanyagban ismertetjük; itt a hangsúly a TensorBoardon van.

Először is importálnunk kell azokat a könyvtárakat, amelyeket a képzés során fogunk használni.

 ## Import the library import tensorflow as tf import numpy as np 

Mi létrehozzuk az adatokat. Ez egy 10000 sorból és oszlopból álló tömb/p>

 X_train = (np.random.sample((10000,5))) y_train = (np.random.sample((10000,1))) X_train.shape 

Az alábbi kód átalakítja az adatokat és létrehozza a modellt.

Vegye figyelembe, hogy a tanulási arány 0,1. Ha ezt az arányt magasabb értékre változtatjuk, a modell nem talál megoldást. Ez történt a fenti kép bal oldalán.

Az alábbi példában a modellt a munkakönyvtáron belül tároljuk, vagyis ott, ahol a notebook vagy a python fájlt tároljuk. Az útvonalon belül a TensorFlow létrehoz egy vonat nevű mappát linreg gyermekmappanévvel.

 feature_columns = [ tf.feature_column.numeric_column('x', shape=X_train.shape[1:])] DNN_reg = tf.estimator.DNNRegressor(feature_columns=feature_columns, # Indicate where to store the log file model_dir='train', hidden_units=[500, 300], optimizer=tf.train.ProximalAdagradOptimizer( learning_rate=0.1, l1_regularization_strength=0.001 ) ) 

Kimenet:

 INFO:tensorflow:Using the default configuration. INFO:tensorflow:Using config:{'_model_dir': 'train/linreg', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': None, '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_service': None, '_cluster_spec': , '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1} 

Az utolsó lépés a modell betanítása. A képzési időszak alatt a TensorFlow információkat ír a modellkönyvtárba.

 # Train the estimator train_input = tf.estimator.inputs.numpy_input_fn( x={'x': X_train}, y=y_train, shuffle=False,num_epochs=None) DNN_reg.train(train_input,steps=3000) 

Kimenet:

java pgm
 INFO:tensorflow:Calling model_fn. INFO:tensorflow:Done calling model_fn. INFO:tensorflow:Create CheckpointSaverHook. INFO:tensorflow: Graph was finalized. INFO:tensorflow:Running local_init_op. INFO:tensorflow:Done running local_init_op. INFO:tensorflow:Saving checkpoints for 1 into train/linreg/model.ckpt. INFO:tensorflow:loss = 40.060104, step = 1 INFO:tensorflow:global_step/sec: 197.061 INFO:tensorflow:loss = 10.62989, step = 101 (0.508 sec) INFO:tensorflow:global_step/sec: 172.487 INFO:tensorflow:loss = 11.255318, step = 201 (0.584 sec) INFO:tensorflow:global_step/sec: 193.295 INFO:tensorflow:loss = 10.604872, step = 301 (0.513 sec) INFO:tensorflow:global_step/sec: 175.378 INFO:tensorflow:loss = 10.090343, step = 401 (0.572 sec) INFO:tensorflow:global_step/sec: 209.737 INFO:tensorflow:loss = 10.057928, step = 501 (0.476 sec) INFO:tensorflow:global_step/sec: 171.646 INFO:tensorflow:loss = 10.460144, step = 601 (0.583 sec) INFO:tensorflow:global_step/sec: 192.269 INFO:tensorflow:loss = 10.529617, step = 701 (0.519 sec) INFO:tensorflow:global_step/sec: 198.264 INFO:tensorflow:loss = 9.100082, step = 801 (0.504 sec) INFO:tensorflow:global_step/sec: 226.842 INFO:tensorflow:loss = 10.485607, step = 901 (0.441 sec) INFO:tensorflow:global_step/sec: 152.929 INFO:tensorflow:loss = 10.052481, step = 1001 (0.655 sec) INFO:tensorflow:global_step/sec: 166.745 INFO:tensorflow:loss = 11.320213, step = 1101 (0.600 sec) INFO:tensorflow:global_step/sec: 161.854 INFO:tensorflow:loss = 9.603306, step = 1201 (0.619 sec) INFO:tensorflow:global_step/sec: 179.074 INFO:tensorflow:loss = 11.110269, step = 1301 (0.556 sec) INFO:tensorflow:global_step/sec: 202.776 INFO:tensorflow:loss = 11.929443, step = 1401 (0.494 sec) INFO:tensorflow:global_step/sec: 144.161 INFO:tensorflow:loss = 11.951693, step = 1501 (0.694 sec) INFO:tensorflow:global_step/sec: 154.144 INFO:tensorflow:loss = 8.620987, step = 1601 (0.649 sec) INFO:tensorflow:global_step/sec: 151.094 INFO:tensorflow:loss = 10.666125, step = 1701 (0.663 sec) INFO:tensorflow:global_step/sec: 193.644 INFO:tensorflow:loss = 11.0349865, step = 1801 (0.516 sec) INFO:tensorflow:global_step/sec: 189.707 INFO:tensorflow:loss = 9.860596, step = 1901 (0.526 sec) INFO:tensorflow:global_step/sec: 176.423 INFO:tensorflow:loss = 10.695, step = 2001 (0.567 sec) INFO:tensorflow:global_step/sec: 213.066 INFO:tensorflow:loss = 10.426752, step = 2101 (0.471 sec) INFO:tensorflow:global_step/sec: 220.975 INFO:tensorflow:loss = 10.594796, step = 2201 (0.452 sec) INFO:tensorflow:global_step/sec: 219.289 INFO:tensorflow:loss = 10.4212265, step = 2301 (0.456 sec) INFO:tensorflow:global_step/sec: 215.123 INFO:tensorflow:loss = 9.668612, step = 2401 (0.465 sec) INFO:tensorflow:global_step/sec: 175.65 INFO:tensorflow:loss = 10.009649, step = 2501 (0.569 sec) INFO:tensorflow:global_step/sec: 206.962 INFO:tensorflow:loss = 10.477722, step = 2601 (0.483 sec) INFO:tensorflow:global_step/sec: 229.627 INFO:tensorflow:loss = 9.877638, step = 2701 (0.435 sec) INFO:tensorflow:global_step/sec: 195.792 INFO:tensorflow:loss = 10.274586, step = 2801 (0.512 sec) INFO:tensorflow:global_step/sec: 176.803 INFO:tensorflow:loss = 10.061047, step = 2901 (0.566 sec) INFO:tensorflow:Saving checkpoints for 3000 into train/linreg/model.ckpt. INFO:tensorflow: Loss for the final step: 10.73032. 

Windows felhasználónak

 cd C:UsersAdminAnaconda3 activate hello-tf 

A TensorBoard elindításához ezt a kódot használhatjuk

 tensorboard --logdir=.	rainlinreg