Mistral 7B Instruct cuantizado
Perfecto. Te explico cómo puedes usar Mistral 7B Instruct cuantizado (Q4) en tu computadora local (Core i5, 16 GB de RAM) usando Python y la biblioteca llama-cpp-python. Este modelo es excelente para generar resúmenes estructurados como actas de audiencia judicial.
✅ Requisitos
-
Python 3.9+
-
Modelo cuantizado de Mistral 7B Instruct (formato GGUF, Q4 o Q5)
-
Bibliotecas:
llama-cpp-python,requests(opcional)
🔹 Paso 1: Instalar dependencias
Si usas Windows y tienes problemas con dependencias, instala con:
🔹 Paso 2: Descargar el modelo
Ve a TheBloke/Mistral-7B-Instruct-v0.1-GGUF y descarga el archivo:
-
✅
mistral-7b-instruct-v0.1.Q4_K_M.gguf(versión ligera que funciona en CPU)
Guárdalo en una carpeta, por ejemplo:
🔹 Paso 3: Script en Python para generar el acta de audiencia
🧪 Resultado esperado
El modelo generará algo como:
🛠️ Consejo
Puedes mejorar los resultados:
-
Ajustando el
promptpara formalizar más el lenguaje. -
Limpiando previamente la transcripción (quita ruidos, repeticiones).
-
Usando
n_gpu_layers=0para evitar errores si no tienes GPU.
¿Quieres que te ayude con una GUI o una interfaz web simple para subir una transcripción .txt y generar el acta al instante?
Puedo ayudarte a integrar esto con Flask (Python) o Node.js (Express). ¿Cuál prefieres?
Comentarios
Publicar un comentario