Create README.md
Browse files
README.md
ADDED
|
@@ -0,0 +1,58 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
Dataset Multimodal - Documentación
|
| 2 |
+
==================================
|
| 3 |
+
|
| 4 |
+
1. Descripción del Dataset
|
| 5 |
+
-------------------------
|
| 6 |
+
Este dataset contiene información extraída de 9 archivos PDF.
|
| 7 |
+
Total de entradas: 295
|
| 8 |
+
Total de páginas procesadas: 295
|
| 9 |
+
Total de imágenes extraídas: 2072
|
| 10 |
+
|
| 11 |
+
2. Estructura del Dataset
|
| 12 |
+
-------------------------
|
| 13 |
+
Cada entrada en el dataset contiene la siguiente información:
|
| 14 |
+
- file: Nombre del archivo PDF de origen
|
| 15 |
+
- page: Número de página dentro del PDF
|
| 16 |
+
- text: Texto extraído de la página
|
| 17 |
+
- tokens: Tokens generados a partir del texto (guardados en dataset_tensors.pt)
|
| 18 |
+
- images: Lista de hashes de imágenes extraídas de la página (guardadas en dataset_tensors.pt)
|
| 19 |
+
- chapter: Título del capítulo al que pertenece la página
|
| 20 |
+
- chapter_summary: Resumen del contenido del capítulo
|
| 21 |
+
|
| 22 |
+
3. Archivos Generados
|
| 23 |
+
---------------------
|
| 24 |
+
- dataset_multimodal.csv: Contiene toda la información excepto los tensores
|
| 25 |
+
- dataset_tensors.pt: Archivo PyTorch con los tensores de texto e imagen
|
| 26 |
+
- images/: Directorio con todas las imágenes extraídas
|
| 27 |
+
|
| 28 |
+
4. Cómo Usar el Dataset
|
| 29 |
+
----------------------
|
| 30 |
+
Para cargar y utilizar este dataset en un modelo de aprendizaje profundo:
|
| 31 |
+
|
| 32 |
+
```python
|
| 33 |
+
import pandas as pd
|
| 34 |
+
import torch
|
| 35 |
+
|
| 36 |
+
# Cargar el CSV
|
| 37 |
+
df = pd.read_csv('dataset_multimodal.csv')
|
| 38 |
+
|
| 39 |
+
# Cargar los tensores
|
| 40 |
+
tensors = torch.load('dataset_tensors.pt')
|
| 41 |
+
text_tokens = tensors['text_tokens']
|
| 42 |
+
image_tensors = tensors['image_tensors']
|
| 43 |
+
|
| 44 |
+
# Ejemplo de acceso a los datos
|
| 45 |
+
for i, row in df.iterrows():
|
| 46 |
+
print(f"Archivo: {row['file']}, Página: {row['page']}")
|
| 47 |
+
print(f"Texto: {row['text'][:100]}...")
|
| 48 |
+
print(f"Tokens: {text_tokens[i]['input_ids'].shape}")
|
| 49 |
+
print(f"Imágenes: {len(row['images'])}")
|
| 50 |
+
for img_hash in row['images']:
|
| 51 |
+
print(f"Imagen {img_hash}: {image_tensors[img_hash]['tensor'].shape}")
|
| 52 |
+
```
|
| 53 |
+
|
| 54 |
+
5. Notas Adicionales
|
| 55 |
+
--------------------
|
| 56 |
+
- Los tokens de texto están limitados a una longitud máxima de 512 tokens.
|
| 57 |
+
- Las imágenes han sido redimensionadas a 224x224 píxeles y normalizadas.
|
| 58 |
+
- Asegúrese de tener suficiente memoria RAM al cargar el dataset completo.
|