logo

Tablero Tensor

TensorFlow es una herramienta de visualización, que se llama TensorBoard. Se utiliza para analizar el gráfico de flujo de datos y para comprender los modelos de aprendizaje automático. TensorBoard es la interfaz utilizada para visualizar el gráfico y muchas herramientas para comprender, depurar y optimizar el modelo.

La característica importante de TensorBoard es que incluye una vista de diferentes tipos de estadísticas sobre los parámetros y detalles de cualquier gráfico en una alineación vertical.

diseño de base de datos en dbms

La red neuronal profunda incluye hasta 36,000 nodos. TensorFlow ayuda a colapsar estos nodos en bloques de alto nivel y resaltar estructuras idénticas. Esto permite un mejor análisis del gráfico, centrándose en las secciones principales del gráfico de cálculo.

Tablero Tensor

Se dice que la visualización de TensorBoard es muy interactiva donde un usuario puede desplazarse, hacer zoom y expandir los nodos para mostrar los detalles.

A continuación se muestra el diagrama que muestra el funcionamiento completo de la visualización de TensorBoard.

Tablero Tensor

Los algoritmos colapsan los nodos en bloques de alto nivel y resaltan los grupos específicos con estructuras idénticas, que separan los nodos de alto grado. El TensorBoard creado es útil y se considera igualmente importante para ajustar un modelo de aprendizaje automático. Esta herramienta de visualización está diseñada para el archivo de registro de configuración.

Mira la foto de abajo:

Tablero Tensor

Una red neuronal decide cómo conectar los diferentes ' neuronas ' y cuántas capas antes de que el modelo pueda predecir el resultado. Una vez que hayamos definido la arquitectura, no sólo necesitamos entrenar el modelo sino también las métricas para calcular la precisión de la predicción. Esta métrica se conoce como función de pérdida. El objetivo es como función de pérdida.

TensorBoard es una gran herramienta para visualizar métricas y resaltar los problemas potenciales. La red neuronal puede tardar de horas a semanas en encontrar una solución. TensorBoard actualiza los parámetros con mucha frecuencia.

TensorBoard se encuentra en esta URL: http://localhost:6006

Tipos de tablero en TensorBoard

Tablero Tensor

1. Panel escalar

Se utiliza para visualizar estadísticas dependientes del tiempo; por ejemplo, es posible que deseemos observar las variaciones en la tasa de aprendizaje o la función de pérdida.

2. Histograma

El panel de histograma en TensorBoard muestra cómo la distribución estadística de un tensor ha variado con el tiempo. Visualiza los datos registrados a través de tf.resumen.histograma .

software del sistema

3. Panel de distribución

Muestra cierto uso de alto nivel de tf.resumen.histograma . Muestra algunos inicios de alto nivel en una distribución. Cada línea del gráfico da una pista sobre el percentil en la distribución de los datos.

4. Panel de imágenes

Esto muestra el png que se guardó mediante un tf.resumen.imagen . Las filas corresponden a las etiquetas y las columnas a la ejecución. Al utilizar este panel de imágenes de TensorBoard, podemos incorporar visualizaciones personalizadas.

5. Panel de audio

Es una excelente herramienta para incorporar widgets de audio reproducibles para audios guardados a través de un tf.summary.audio . El panel siempre incorpora el audio más reciente para cada etiqueta.

6. Explorador de gráficos

Se utiliza principalmente para permitir la inspección del modelo TensorFlow.

7. Proyector

El proyector integrado en TensorFlow se utiliza para datos multidimensionales. El proyector integrado lee datos del archivo de punto de control y puede configurarse con los datos correspondientes, como un archivo de vocabulario.

8. Panel de texto

Text Dashboard muestra expertos en texto guardados a través de tf.summary.text. , incluye funciones como hipervínculos, listas y tablas, todas ellas compatibles.

Tablero Tensor

Diferentes vistas de TensorBoard

Diferentes vistas toman entradas de diferentes formatos y las muestran de manera diferente. Podemos cambiarlos en la barra superior naranja.

    Escalares-Visualice valores escalares, como la precisión de la clasificación.Grafico-Visualice el gráfico computacional de nuestro modelo, como el modelo de red neuronal.Distribuciones-Visualice cómo los datos cambian con el tiempo, como los pesos de una red neuronal.Histogramas-Una vista más elegante de la distribución que muestra una distribución que muestra distribuciones en una perspectiva tridimensional.Proyector-Se puede utilizar para visualizar incrustaciones de palabras (es decir, las incrustaciones de palabras son representaciones numéricas de palabras que capturan sus relaciones semánticas)Imagen-Visualización de datos de imágenesAudio-Visualización de datos de audioTexto-Visualizar datos de texto

¿Cómo utilizar TensorBoard?

Aprenderemos cómo abrir TensorBoard desde la terminal para MacOS y Windows de línea de comandos.

El código se explicará en un tutorial futuro; La atención se centra aquí en TensorBoard.

Primero, necesitamos importar las bibliotecas que usaremos durante la capacitación.

 ## Import the library import tensorflow as tf import numpy as np 

Creamos los datos. Es una matriz de 10000 filas y columnas/p>

 X_train = (np.random.sample((10000,5))) y_train = (np.random.sample((10000,1))) X_train.shape 

El siguiente código transforma los datos y crea el modelo.

Tenga en cuenta que la tasa de aprendizaje es igual a 0,1. Si cambiamos esta tasa a un valor mayor, el modelo no encontrará solución. Esto es lo que sucedió en el lado izquierdo de la imagen de arriba.

En el siguiente ejemplo, almacenamos el modelo dentro del directorio de trabajo, es decir, donde almacenamos el cuaderno o el archivo Python. Dentro de la ruta, TensorFlow crea una carpeta llamada train con un nombre de carpeta secundaria linreg.

 feature_columns = [ tf.feature_column.numeric_column('x', shape=X_train.shape[1:])] DNN_reg = tf.estimator.DNNRegressor(feature_columns=feature_columns, # Indicate where to store the log file model_dir='train', hidden_units=[500, 300], optimizer=tf.train.ProximalAdagradOptimizer( learning_rate=0.1, l1_regularization_strength=0.001 ) ) 

Producción:

 INFO:tensorflow:Using the default configuration. INFO:tensorflow:Using config:{'_model_dir': 'train/linreg', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': None, '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_service': None, '_cluster_spec': , '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1} 

El último paso consiste en entrenar el modelo. Durante el período de formación, TensorFlow escribe información en el directorio del modelo.

fecha mecanografiada
 # Train the estimator train_input = tf.estimator.inputs.numpy_input_fn( x={'x': X_train}, y=y_train, shuffle=False,num_epochs=None) DNN_reg.train(train_input,steps=3000) 

Producción:

 INFO:tensorflow:Calling model_fn. INFO:tensorflow:Done calling model_fn. INFO:tensorflow:Create CheckpointSaverHook. INFO:tensorflow: Graph was finalized. INFO:tensorflow:Running local_init_op. INFO:tensorflow:Done running local_init_op. INFO:tensorflow:Saving checkpoints for 1 into train/linreg/model.ckpt. INFO:tensorflow:loss = 40.060104, step = 1 INFO:tensorflow:global_step/sec: 197.061 INFO:tensorflow:loss = 10.62989, step = 101 (0.508 sec) INFO:tensorflow:global_step/sec: 172.487 INFO:tensorflow:loss = 11.255318, step = 201 (0.584 sec) INFO:tensorflow:global_step/sec: 193.295 INFO:tensorflow:loss = 10.604872, step = 301 (0.513 sec) INFO:tensorflow:global_step/sec: 175.378 INFO:tensorflow:loss = 10.090343, step = 401 (0.572 sec) INFO:tensorflow:global_step/sec: 209.737 INFO:tensorflow:loss = 10.057928, step = 501 (0.476 sec) INFO:tensorflow:global_step/sec: 171.646 INFO:tensorflow:loss = 10.460144, step = 601 (0.583 sec) INFO:tensorflow:global_step/sec: 192.269 INFO:tensorflow:loss = 10.529617, step = 701 (0.519 sec) INFO:tensorflow:global_step/sec: 198.264 INFO:tensorflow:loss = 9.100082, step = 801 (0.504 sec) INFO:tensorflow:global_step/sec: 226.842 INFO:tensorflow:loss = 10.485607, step = 901 (0.441 sec) INFO:tensorflow:global_step/sec: 152.929 INFO:tensorflow:loss = 10.052481, step = 1001 (0.655 sec) INFO:tensorflow:global_step/sec: 166.745 INFO:tensorflow:loss = 11.320213, step = 1101 (0.600 sec) INFO:tensorflow:global_step/sec: 161.854 INFO:tensorflow:loss = 9.603306, step = 1201 (0.619 sec) INFO:tensorflow:global_step/sec: 179.074 INFO:tensorflow:loss = 11.110269, step = 1301 (0.556 sec) INFO:tensorflow:global_step/sec: 202.776 INFO:tensorflow:loss = 11.929443, step = 1401 (0.494 sec) INFO:tensorflow:global_step/sec: 144.161 INFO:tensorflow:loss = 11.951693, step = 1501 (0.694 sec) INFO:tensorflow:global_step/sec: 154.144 INFO:tensorflow:loss = 8.620987, step = 1601 (0.649 sec) INFO:tensorflow:global_step/sec: 151.094 INFO:tensorflow:loss = 10.666125, step = 1701 (0.663 sec) INFO:tensorflow:global_step/sec: 193.644 INFO:tensorflow:loss = 11.0349865, step = 1801 (0.516 sec) INFO:tensorflow:global_step/sec: 189.707 INFO:tensorflow:loss = 9.860596, step = 1901 (0.526 sec) INFO:tensorflow:global_step/sec: 176.423 INFO:tensorflow:loss = 10.695, step = 2001 (0.567 sec) INFO:tensorflow:global_step/sec: 213.066 INFO:tensorflow:loss = 10.426752, step = 2101 (0.471 sec) INFO:tensorflow:global_step/sec: 220.975 INFO:tensorflow:loss = 10.594796, step = 2201 (0.452 sec) INFO:tensorflow:global_step/sec: 219.289 INFO:tensorflow:loss = 10.4212265, step = 2301 (0.456 sec) INFO:tensorflow:global_step/sec: 215.123 INFO:tensorflow:loss = 9.668612, step = 2401 (0.465 sec) INFO:tensorflow:global_step/sec: 175.65 INFO:tensorflow:loss = 10.009649, step = 2501 (0.569 sec) INFO:tensorflow:global_step/sec: 206.962 INFO:tensorflow:loss = 10.477722, step = 2601 (0.483 sec) INFO:tensorflow:global_step/sec: 229.627 INFO:tensorflow:loss = 9.877638, step = 2701 (0.435 sec) INFO:tensorflow:global_step/sec: 195.792 INFO:tensorflow:loss = 10.274586, step = 2801 (0.512 sec) INFO:tensorflow:global_step/sec: 176.803 INFO:tensorflow:loss = 10.061047, step = 2901 (0.566 sec) INFO:tensorflow:Saving checkpoints for 3000 into train/linreg/model.ckpt. INFO:tensorflow: Loss for the final step: 10.73032. 

Para usuarios de Windows

 cd C:UsersAdminAnaconda3 activate hello-tf 

Para iniciar TensorBoard, podemos usar este código

 tensorboard --logdir=.	rainlinreg