TENGWAR - Asistente RAG Privado
Plataforma RAG empresarial 100% privada (Generación Aumentada por Recuperación) para equipos que necesitan búsqueda de documentos potenciada por IA sin enviar datos a la nube.
Problema y Contexto
Muchas PYMEs requieren asistentes de conocimiento internos pero no pueden enviar documentos propietarios a APIs de LLM externas (legal, GDPR, secretos comerciales, protección de IP). TENGWAR surgió para resolver esto: un paquete plug-and-play de hardware + software ejecutándose localmente, incrustando documentos de la empresa (PDFs, Word, Excel, PowerPoint, exportaciones de confluence, etc.) en bases de datos vectoriales y proporcionando interfaces de P&R tipo ChatGPT—con citas de fuentes precisas—sin que ningún dato salga de las instalaciones. Soporta más de 100 idiomas, control de acceso multi-usuario e integra con sistemas de autenticación internos.
Responsabilidades
- Desarrollo full-stack: UI, backend, pipeline de IA y selección de hardware
- Arquitectura RAG: modelos de embedding, bases de datos vectoriales (pgvector), estrategias de recuperación
- Ingestión multi-formato: PDF, DOCX, XLSX, PPTX, TXT, MD, HTML (más de 20 formatos)
- Interfaz de chat en tiempo real: UI Next.js con streaming SignalR para respuestas progresivas
- Superposición de citas de fuente: cada respuesta enlaza a documento exacto y número de página
- Control de acceso basado en roles: departamentos y permisos de usuario en colecciones de documentos
- Integración de hardware: configuración de appliance basado en Linux (Debian, servicios systemd)
- Capa de traducción multi-idioma: traducción automática de consulta y respuesta (más de 100 idiomas)
- Despliegue y soporte: incorporación de clientes, capacitación y mejoras iterativas
Arquitectura y Stack
- Frontend: Next.js 14 (React, TypeScript), Tailwind CSS, cliente SignalR
- Backend: ASP.NET Core 8 (C#), streaming WebSocket SignalR
- Pipeline RAG: Python (LangChain, sentence-transformers), pgvector (extensión PostgreSQL)
- Modelos de embedding: sentence-transformers multilingües (inferencia local)
- Inferencia LLM: Ollama (modelos locales: Llama, Mistral, etc.) o fallback de API externa
- Ingestión de documentos: Apache Tika + parsers personalizados para extracción de metadatos
- Base de datos: PostgreSQL 16 + pgvector para búsqueda vectorial
- Autenticación: integración LDAP / Active Directory + tokens JWT
- Hardware: Intel NUC / appliance Linux personalizado con GPU (NVIDIA RTX para embeddings)
- Despliegue: orquestación Docker Compose, gestión de servicios systemd
- Monitoreo: Prometheus + Grafana para análisis de uso
Resultados
- Habilitó asistente de IA 100% privado para clientes que no pueden usar LLMs en la nube
- El soporte de más de 20 formatos de archivo eliminó flujos de trabajo de conversión manual de documentos
- Las citas de fuentes precisas aumentaron la confianza del usuario y auditabilidad de cumplimiento
- El acceso basado en roles aseguró aislamiento de datos departamental y cumplimiento de seguridad
- El soporte multi-idioma expandió el mercado direccionable a organizaciones no inglesas
- El modelo de hardware plug-and-play redujo fricción de despliegue y carga de TI
Más Información
Página oficial del producto: tengwar.net ↗
