Skip to content

Commit a06164f

Browse files
committed
Se actualiza README.md
1 parent 5fe79bc commit a06164f

File tree

2 files changed

+24
-9
lines changed

2 files changed

+24
-9
lines changed

.gitignore

+1
Original file line numberDiff line numberDiff line change
@@ -13,6 +13,7 @@ env/
1313
__pycache__/
1414
*.pyc
1515
*.pyo
16+
z_test.py
1617

1718
# Archivos de logs
1819
*.log

README.md

+23-9
Original file line numberDiff line numberDiff line change
@@ -1,10 +1,19 @@
1-
# Web Scraping: Consulta Amigable MEF
1+
[![DOI](https://zenodo.org/badge/408010655.svg)]( )
2+
3+
# Web Scraping: Consulta Amigable MEF <a id='a'></a>
24
Este proyecto utiliza Selenium para automatizar la navegación web y extraer datos del portal [Consulta Amigable](https://apps5.mineco.gob.pe/transparencia/Mensual/default.aspx) del MEF. Los datos extraídos se guardan en un archivo XLSX/CSV para su posterior análisis y procesamiento.
35

46
El scraper está optimizado para extraer la ejecución del gasto con frecuencia mensual según la desagregación "¿Quién gasta?", iterando por año, departamento, provincia y municipalidad, siendo este último el nivel donde se obtienen los datos.
57

68

7-
## 1. Requisitos
9+
## Contenido
10+
1. [**Requisitos**](#1)
11+
2. [**Instalación**](#2)
12+
3. [**Estructura del Proyecto**](#3)
13+
4. [**Uso**](#4)
14+
15+
16+
## 1. Requisitos <a id='1'></a>
817

918
Este proyecto se desarrolló en:
1019
* Python 3.11
@@ -20,7 +29,7 @@ selenium==4.28.1
2029
requests==2.32.3
2130
```
2231

23-
## 2. Instalación
32+
## 2. Instalación <a id='2'></a>
2433

2534
### 2.1. Clonar el repositorio
2635
Clona este repositorio en tu máquina local utilizando el siguiente comando:
@@ -59,7 +68,7 @@ Los archivos extraídos del `.zip` guardar y/o reemplazar en la carpeta `03_con
5968
> [!IMPORTANT]
6069
> La versión del Chrome (el navegador regular) debe estar actualizado.
6170
62-
## 3. Estructura del Proyecto
71+
## 3. Estructura del Proyecto <a id='3'></a>
6372

6473
```
6574
/WS CAMEF/
@@ -183,7 +192,7 @@ stateDiagram
183192
***Nota:** Este diagrama muestra el flujo de navegación y extracción de datos, detallando las iteraciones en la automatización. Implícitamente, después de cada `click_on_element()`, se ejecuta `switch_to_frame()`.*
184193

185194

186-
### 3.2 `c_cleaner.py`
195+
### 3.3 `c_cleaner.py`
187196
Este script se encarga de la limpieza y preprocesamiento de los datos extraídos.
188197

189198
- Carga los datos desde el archivo generado por `b_scraper.py`.
@@ -200,7 +209,7 @@ El script se compone de las siguientes funciones:
200209
- **`main()`** → Función principal que ejecuta la secuencia de limpieza y almacenamiento de datos.
201210

202211

203-
## 4. Uso
212+
## 4. Uso <a id='4'></a>
204213

205214
### 4.1. Activar el entorno virtual
206215

@@ -221,9 +230,14 @@ python 02_src\b_scraper.py
221230
python 02_src\c_cleaner.py
222231
```
223232

224-
## 5. Licencia
233+
## Licencia
225234
Este proyecto está licenciado bajo la Licencia MIT. Consulta el archivo LICENSE para más detalles.
226235

227-
## 6. Contactos
236+
## Citación
237+
238+
239+
## Contactos
228240
Correo:
229-
LinkedIn:
241+
LinkedIn:
242+
243+
[**Subir ↑**](#a)

0 commit comments

Comments
 (0)