Necesito que desarrolles un scraper automatizado capaz de extraer texto, a gran velocidad y sin fallos, desde un sitio oficial específico. El objetivo es la recolección de contenido para uso interno, por lo que la estabilidad y la limpieza de los datos son prioritarias. Requisitos clave: • Extraer todo el texto relevante del sitio indicado, respetando su estructura (títulos, subtítulos, párrafos, fechas). • Tiempos de respuesta muy bajos; el script debe aprovechar técnicas de concurrencia o asincronía para no bloquearse. • Manejo robusto de errores y reintentos automáticos ante caídas, cambios menores en el HTML o límites de petición. • Salida en formato CSV o JSON limpio, lista para una futura base de datos. • Registro de logs que permitan auditar cada ejecución. Valoraría que el código se entregue en Python con Scrapy, Requests-HTML o Playwright, aunque estoy abierto a la tecnología que consideres más eficaz para lograr la velocidad y fiabilidad requeridas. También agradeceré comentarios en el código y un breve README que explique dependencias y pasos de instalación. Si tienes experiencia demostrable creando scrapers de alto rendimiento, me encantará revisar tu propuesta.