¿Qué Medir?
Existen una serie de operaciones que, independientemente del uso particular que cada cliente le de al Gestor Documental, son clave y hay que controlar:- Navegación - Tiempo en abrir un documento
- Subida de documentos - Tiempo que tarda el Gestor Documental en subir un documento
En las pruebas, obtenemos las siguientes métricas:
- Transacciones por segundo
- "Throughput transaction" vs usuarios concurrentes
- Peticiones por segundo (hits/s)
- Tiempos de respuesta vs usuarios concurrentes
Nota: Los threads son un aspecto de configuración, razón por la que condicionamos las métricas al valor configurado.
¿Cómo medir el tiempo de respuesta?
A continuación, describimos dos pruebas automatizadas que nosotros usualmente utilizamos para medir los tiempos de respuesta de nuestras instancias y las de nuestros clientes.Podemos realizar estas pruebas con JMetter, estableciendo parámetros en nuestras pruebas, por ejemplo:
- Número de documentos en el repositorio (este valor lo establecemos en el momento de la implantación, siendo variable cuando está en producción): 800.000 documentos.
- Número de usuarios simultáneos: 30, 40 y 50
- Ramp-up time (segundos): 60, 90 y 120
- Bucle (iteraciones): 10, 30, 50
- La representación de cada escenario es: Users/Rampup/Iterations (por ejemplo 30/60/10)

De cualquier manera, estos parámetros deberán estar en concordancia con las necesidades de nuestra compañía o características actuales de la instancia.
Para controlar las variables de las que hablabamos en el punto anterior definimos dos pruebas:
Prueba de Navegación básica
Se realizan los siguientes pasos:
- Login
- Navegación por Workspace y Carpeta hasta un tercer nivel
- Abrir un documento dentro de una Carpeta
- Navegamos por 4 TABS en el Documento: Sumario, Relaciones, Comentarios, Histórico.
- Logout

Además, tmbién nos da información sobre el tiempo que se toma el test:
Prueba de Creación de un documento (a través de la API)
El test realiza los siguientes pasos:
- Se comprueba si existe un determinado Workspace y si no existe, se crea (sólo ocurre la primera vez)
- Se crea una Carpeta dentro del Workspace
- Creamos 10 documentos secuencialmente dentro de la Carpeta, a los que secuencialmente adjuntamos un fichero.
- Buscamos y obtenemos cada uno de los 10 documentos.

¿Qué resultados son aceptables?
Debemos prestar atención a los siguientes datos:- Tiempo medio de acceso a un documento durante la ejecución de los tests.
- Tiempo medio de escritura de un documento durante la ejecución de los tests.
- Número de usuarios concurrentes (máximo) en el que estos valores son válidos.
Los test de utilización de la API también nos van a permitir saber qué tal va el rendimiento. En una instancia con 12 millones de documentos, podemos tener por ejemplo, un tiempo medio de creación de documento de 1031ms.

No hay comentarios:
Publicar un comentario