Necesito una pequeña aplicación backend que extraiga de forma automática toda la información disponible en una web de neumáticos y la guarde en una base de datos que definiremos juntos (MySQL, PostgreSQL o similar). El conector debe ser ejecutable, no debe requerir herramientas de desarrollo o similares para su ejecución. La prioridad es que el proceso funcione sin instalar nada en mi servidor: puede residir en un contenedor, un servicio serverless o ejecutarse desde tu propia infraestructura siempre que ofrezca API o job programable. Los datos que me interesan son completos, pero se agrupan y consultan principalmente por la dimensión del neumático. Además habrá una tabla de parámetros donde indicaré qué medidas son prioritarias; esas se deberán revisar a diario, mientras que el resto se refrescarán, en principio, cada semana. El intervalo debe poder ajustarse fácilmente desde la misma tabla o un archivo de configuración. Requisitos funcionales clave • Rastreo no invasivo: respetar la carga del sitio, manejar tiempos de espera y cabeceras para evitar bloqueos. • Esquema dinámico: al importar registros quiero que se creen automáticamente tablas auxiliares (por ejemplo, marcas) si todavía no existen. • Registro de estado: necesito saber cuándo se lanzó cada job, cuántos registros se actualizaron y cualquier error detectado. • Entrega inmediata: busco a alguien disponible para empezar de forma casi inmediata; si no lo estás, por favor no envíes propuesta. Debe existir una dashboard principal que indique cuantos articulos se han actualizado. Asi como un apartado de destacados donde se indiquen registros (información) de neumaticos que han bajado desde su ultima recogida (si existe), en mas de un 10% (este valor tambien será parametrizable) Aceptación Considero el trabajo completado cuando pueda lanzar el proceso con mis propias credenciales, ver los registros clasificados por tamaño en la base de datos y comprobar que las medidas prioritarias reciben un refresh diario sin afectar la estabilidad del sitio origen.