Sobre este proyecto
it-programming / data-science-1
Abierto
Tenemos un servidor odoo corriendo en ubuntu que graba sus logs en un archivo con el siguiente aspecto:
2023-09-26 14:41:09,526 443563 Error cityizta12may2023 odoo.sql_db: bad query: update "account_payment" set "write_uid"=26,"write_date"=(now() at time zone 'utc') where id in (37967, 37970, 37982, 37983, 37984, 37988, 37996, 37997, 38002, 38017, 38019, 38022, 38026, 38031, 38033, 38038, 38039, 38040, 38042, 38049, 38052, 38060, 38062, 38063, 38065, 38093, 38097, 38098, 38103, 38105, 38106, 38108, 38127, 38128, 38131, 38132, 38142, 38143, 38144, 38147, 38150, 38160, 38172, 38173, 38199, 38202, 38214, 38218, 38219, 38228, 38236, 38237, 38246, 38248, 38249, 38250, 38251, 38254, 38258, 38288, 38295, 38296, 38301, 38317, 38332, 38345, 38346, 38352, 38353, 38365, 38367, 38368, 38369, 38370, 38375, 38385, 38386)
error: no se pudo serializar el acceso debido a un update concurrente
objetivo:
monitorear los logs del servidor de producción, llevar la cuenta y la fecha de los logs que tengan cierta palabra clave o comiencen de cierta forma, o contengan un fragmento en particular de una sentencia sql.
Buscamos una persona que pueda construir para nosotros los siguientes elementos:
1.- Instalación de un servidor ELK en una máquina virtual de nosotros.
2.- Capacitación en la instalación y configuración del beat que transferirá los datos del servidor de producción al servidor ELK
3.- Configuración del logstash o de. Lo que proponga a utilizar para. El tratamiento de los datos y la ingesta en elasticsearch
4.- Configuración del dashboard kibana con los elementos que necesitamos para cumplir el objetivo.
El dashboard en kibana y las vistas necesarias para poder clasificar estos logs por los diferentes estados que pueden ser "error", "info", "debug", "test", "warning" y "critical" además deberemos poder aplicar los siguientes filtros:
- filtrar logs por estado y contabilizarlos
- agrupar los logs cuando contengan un cierto fragmento de un query de sql con la finalidad de poder conocer la cantidad de veces ha surgido ese error específico.
- Agrupar los logs por la palabra claves "update concurrente", "compute analysis", "transacción abortada" y "401 Unauthorized"
- Ignorar los logs. "401 Unauthorized" , no es importante por ahora monitorearlos
Además de todo lo anterior, poder filtrar los logs por fecha de inicio y fecha de fin
Categoría Programación y Tecnología
Subcategoría Data Science
Tamaño del proyecto Pequeño
¿Es un proyecto o una posición? Un proyecto
Disponibilidad requerida Según se necesite
Plazo de Entrega: No definido
Habilidades necesarias