Entradas

Mostrando entradas de julio, 2025

Mistral 7B Instruct cuantizado

 Perfecto. Te explico cómo puedes usar Mistral 7B Instruct cuantizado (Q4) en tu computadora local (Core i5, 16 GB de RAM) usando Python y la biblioteca llama-cpp-python . Este modelo es excelente para generar resúmenes estructurados como actas de audiencia judicial. ✅ Requisitos Python 3.9+ Modelo cuantizado de Mistral 7B Instruct (formato GGUF, Q4 o Q5) Bibliotecas : llama-cpp-python , requests (opcional) 🔹 Paso 1: Instalar dependencias bash pip install llama-cpp-python Si usas Windows y tienes problemas con dependencias, instala con: bash pip install llama-cpp-python --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu 🔹 Paso 2: Descargar el modelo Ve a TheBloke/Mistral-7B-Instruct-v0.1-GGUF y descarga el archivo: ✅ mistral-7b-instruct-v0.1.Q4_K_M.gguf (versión ligera que funciona en CPU) Guárdalo en una carpeta, por ejemplo: bash Copiar Editar ./modelos/mistral-7b-instruct-v0.1.Q4_K_M.gguf 🔹 Paso 3: Script en Python para ge...

Los 3 mejores LLMs ligeros y open source para tu caso

   Los 3 mejores LLMs ligeros y open source para tu caso 1. Phi-2 (Microsoft) Tamaño : ~2.7B parámetros. Rendimiento : Excelente comprensión de texto para su tamaño. Ideal para : Tareas de NLP como resumen, clasificación, QA. Requisitos : Funciona bien en CPU (8-16 GB RAM). Uso en Python : transformers + torch o ggml con llama-cpp-python . Ventajas : Entrenado en corpus limpio. Ligero y rápido en CPU. Instalación rápida : bash Copiar Editar pip install transformers torch python Copiar Editar from transformers import AutoTokenizer, AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained( "microsoft/phi-2" ) tokenizer = AutoTokenizer.from_pretrained( "microsoft/phi-2" ) 2. TinyLlama (1.1B) Tamaño : 1.1B parámetros. Modelo : Basado en arquitectura LLaMA optimizada. Rendimiento : Sorprendentemente bueno en tareas como resumen y chat general. Ventajas : Extremadamente ligero (corre en CPU sin problemas). ...

LLM PARA GENERAR ACTAS DE AUDIENCIAS

 quiero sacar un resumen de la transcripción de una audiencia judicial para generear un resumen llamada acta de audiencia, debido a que son datos confidenciales quiero usar un LLM gratuito(open source) que  se ligero para una computadora corei5 y 16gb en ram, puedes darme los tres LLM ligeros y open source que sean ideoneos para generar estas actas de audiencias judiciales. como lenguajes utilizo puthon y node(javascript) me gustaria que consideraras las mejores herramientas para que sean optimas sin errores las actas 

editor de texto enriquecido nativo

  Analizando tu código, veo que estás utilizando un editor de texto enriquecido nativo del navegador mediante el elemento HTML con el atributo   contenteditable="true"   (en tu archivo index.html): html < div id = " editor " contenteditable = " true " spellcheck = " true " > </ div > Este es el editor de texto enriquecido más básico y nativo que puedes usar, que aprovecha la funcionalidad integrada del navegador.

Aplicación Local con LLM Open-Source

  Aplicación Local con LLM Open-Source para Generar Actas de Audiencia Voy a mostrarte cómo construir una solución completamente local y open-source usando modelos de HuggingFace y herramientas Python. 1. Modelos Open-Source Recomendados Para esta tarea, estos modelos funcionan bien: Resumen : facebook/bart-large-cnn, google/pegasus-xsum Generación de texto : databricks/dolly-v2-12b, togethercomputer/RedPajama-INCITE-7B-Instruct Especializados legal : nlpaueb/legal-bert-base-uncased, LexPredict/lexgpt 2. Instalación de Dependencias bash pip install transformers torch sentencepiece python-docx unstructured 3. Implementación Completa python from transformers import pipeline , AutoTokenizer , AutoModelForSeq2SeqLM from docx import Document import datetime class GeneradorActasLocal : def __init__ ( self ) : # Cargar modelo de resumen self . resumidor = pipeline ( "summarization" , model = "facebook/bart-large-cnn...