De Búsqueda por Keywords a RAG: Cómo le Enseñé a Mi Blog a Entender Preguntas
17 de febrero de 2026 · 10 min de lectura
NLP · RAG · SBERT · Vertex AI · cosine similarity · embeddings · pgvector
Este artículo técnico describe cómo se implementó un motor de búsqueda semántica para un blog personal, superando las limitaciones de la búsqueda por keywords tradicional. Se explica el concepto de embeddings, la similitud coseno y la transición de un modelo local (SBERT) a Vertex AI `text-embedding-005`. El lector aprenderá sobre el pipeline de indexación, la justificación para usar `pickle` en lugar de `pgvector` y los desafíos de convertir texto en representaciones numéricas significativas para mejorar la experiencia de búsqueda.