Semantic Search 2.0: Cómo Mercado Libre Rediseñó su Búsqueda con Vectores (y Aplastó a Google)
29 JUL., 2025
//5 min. de Lectura

Cuando los ingenieros de Mercado Libre implementaron transformers de última generación, redujeron un 40% los "cero resultados" y aumentaron las conversiones en un 28%. En el competitivo mundo del e-commerce latinoamericano, la batalla por la búsqueda perfecta se ha decidido con una tecnología revolucionaria: la búsqueda semántica vectorial. Hoy revelamos cómo Mercado Libre superó a Google en precisión de búsqueda para productos específicos.
El Problema de las Palabras Clave: Cuando "iPhone 15 Pro" No Encuentra lo Que Buscas
En 2022, Mercado Libre enfrentaba una crisis silenciosa:
- El 34% de las búsquedas complejas devolvían resultados irrelevantes
- Las consultas como "mochila para laptop gamer 17 pulgadas" mostraban productos incorrectos
- El 22% de usuarios abandonaba después de una búsqueda fallida
- Google Shopping capturaba cada vez más tráfico de productos específicos
El sistema basado en palabras clave fallaba en entender:
- Sinónimos regionales (celular vs móvil vs teléfono)
- Consultas descriptivas sin nombres de marca
- Intención detrás de búsquedas como "regalo para esposa amante del café"
- Equivalencias entre características técnicas
Mientras Google avanzaba con BERT, Mercado Libre necesitaba una solución que entendiera el español latino con sus particularidades regionales.
La Revolución Vectorial: Embeddings Hechos en América Latina
El equipo liderado por Dra. Camila Rojas desarrolló MELI-Embed, un modelo de embeddings específico para comercio electrónico en español:
# Arquitectura del modelo MELI-Embed (basado en XLM-RoBERTa)
from transformers import AutoModel, AutoTokenizer
model = AutoModel.from_pretrained("mercado-libre/meli-embed-v1")
tokenizer = AutoTokenizer.from_pretrained("mercado-libre/meli-embed-v1")
# Procesamiento de consulta
consulta = "zapatillas running mujer amortiguación máxima"
inputs = tokenizer(consulta, return_tensors="pt")
outputs = model(**inputs)
# Embedding de 768 dimensiones
embedding = outputs.last_hidden_state.mean(dim=1).detach().numpy()
Innovaciones clave:
- Entrenado con 1.4B de búsquedas reales de usuarios latinoamericanos
- Vocabulario regional: Incluye modismos como "polera" (Chile), "remera" (Argentina), "playera" (México)
- Triple loss function: Optimizado para relevancia, conversión y satisfacción
- Dimensión óptima: 768 vs 512 de modelos genéricos
En pruebas ciegas, MELI-Embed superó a Google Universal Sentence Encoder en precisión para productos latinos en un 31%.
Arquitectura Híbrida: El Secreto de la Velocidad Latinoamericana
Implementar búsqueda vectorial en 18 países con 10,000 consultas/segundo requirió una solución innovadora:
Antigua Arquitectura
- Elasticsearch para búsqueda por keywords
- Redis para caching de resultados
- Latencia promedio: 420ms
- Precisión: 68% en consultas complejas
Nueva Arquitectura Vectorial
- Pinecone para embeddings de productos
- Weaviate para búsqueda semántica
- Modelo de reranking cruzado personalizado
- Latencia: 150ms (64% menos)
- Precisión: 92% en consultas complejas
Flujo de consulta en tiempo real:
- Consulta convertida a embedding con MELI-Embed
- Búsqueda aproximada de vecinos (ANN) en Pinecone
- Reranking con modelo personalizado (producto+usuario+contexto)
- Fusión con resultados de búsqueda tradicional
- Respuesta en menos de 200ms
Resultados que Sorprendieron al Mundo: 28% Más Ventas
Tras implementar Semantic Search 2.0 en Q3 2023, los resultados fueron extraordinarios:
"Cero resultados"
Conversiones
puntos NPS
Casos de éxito específicos:
- Búsqueda: "audífonos cancelación ruido gym" → Mostró modelos resistentes al sudor
- Búsqueda: "mueble para TV 55 OLED" → Priorizó soportes con peso >15kg
- Búsqueda: "regalo niño 8 años programación" → Sugirió kits Arduino Junior
En el Black Friday 2023, el sistema manejó picos de 45,000 consultas/minuto con latencia promedio de 142ms.
Benchmark vs Google: Donde los Vectores Superan al Gigante
En pruebas independientes con 500 consultas complejas:
Métrica | Google Shopping | Mercado Libre (viejo) | Mercado Libre (Semantic 2.0) |
---|---|---|---|
Precisión Top 3 | 78% | 65% | 94% |
Relevancia Subjetiva | 4.2/5 | 3.8/5 | 4.7/5 |
Tiempo Respuesta | 380ms | 420ms | 150ms |
Conversión | 22% | 18% | 28% |
Factor clave: Mientras Google usa un modelo genérico, MELI-Embed entiende especificidades latinas como "gaseosa" (refresco), "chompa" (abrigo), o "frigobar" (mininevera).
El Futuro: Búsqueda Multimodal y Personalización Extrema
Mercado Libre no se detiene. Su hoja de ruta incluye:
- Búsqueda por imágenes: Sube una foto del producto que quieres
- Embeddings multimodales: Unifica texto, imagen y audio en un solo espacio vectorial
- Personalización contextual: Búsquedas que consideran tu historial, ubicación y preferencias
- Asistentes conversacionales: "Encuéntrame un celular bueno, bonito y barato"
Próximos lanzamientos:
# Prototipo de búsqueda multimodal
from meli_search import MultiModalSearch
search_engine = MultiModalSearch(api_key="prod")
results = search_engine.query(
text="zapatos formales",
image="user_upload.jpg", # De un evento reciente
filters={"price_range": (50, 120), "brand": "premium"}
)
Conclusión: Cuando la Tecnología Local Supera a los Gigantes Globales
La victoria de Mercado Libre sobre Google en precisión de búsqueda nos enseña:
- La especialización vence a la generalización: Un modelo local supera a uno global
- Los vectores transforman la experiencia: De buscar palabras a entender necesidades
- La baja latencia es crítica: La magia debe ser instantánea
- Los datos locales son oro: 1.4B de consultas latinas fueron el diferencial
Semantic Search 2.0 no es sólo un éxito técnico - es un caso de estudio en cómo América Latina puede liderar innovación global. Con un aumento del 28% en conversiones y reducción del 40% en búsquedas fallidas, Mercado Libre ha demostrado que los vectores son el futuro del comercio electrónico.
La próxima vez que busques "polerón abrigado pero fashion" y encuentres exactamente lo que querías, recuerda: detrás hay 768 dimensiones de pura magia matemática latinoamericana.
Comentarios
0Sin comentarios
Sé el primero en compartir tu opinión.
También te puede interesar
El OrdinalEncoder se utiliza para convertir datos categóricos ordinales en valores numéricos
ecorreremos la fascinante evolución de estas arquitecturas