Semantic Search 2.0: Cómo Mercado Libre Rediseñó su Búsqueda con Vectores (y Aplastó a Google)

29 JUL., 2025

//

5 min. de Lectura

Cuando los ingenieros de Mercado Libre implementaron transformers de última generación, redujeron un 40% los "cero resultados" y aumentaron las conversiones en un 28%. En el competitivo mundo del e-commerce latinoamericano, la batalla por la búsqueda perfecta se ha decidido con una tecnología revolucionaria: la búsqueda semántica vectorial. Hoy revelamos cómo Mercado Libre superó a Google en precisión de búsqueda para productos específicos.

El Problema de las Palabras Clave: Cuando "iPhone 15 Pro" No Encuentra lo Que Buscas

En 2022, Mercado Libre enfrentaba una crisis silenciosa:

  • El 34% de las búsquedas complejas devolvían resultados irrelevantes
  • Las consultas como "mochila para laptop gamer 17 pulgadas" mostraban productos incorrectos
  • El 22% de usuarios abandonaba después de una búsqueda fallida
  • Google Shopping capturaba cada vez más tráfico de productos específicos

El sistema basado en palabras clave fallaba en entender:

  • Sinónimos regionales (celular vs móvil vs teléfono)
  • Consultas descriptivas sin nombres de marca
  • Intención detrás de búsquedas como "regalo para esposa amante del café"
  • Equivalencias entre características técnicas

Mientras Google avanzaba con BERT, Mercado Libre necesitaba una solución que entendiera el español latino con sus particularidades regionales.

La Revolución Vectorial: Embeddings Hechos en América Latina

El equipo liderado por Dra. Camila Rojas desarrolló MELI-Embed, un modelo de embeddings específico para comercio electrónico en español:

    
# Arquitectura del modelo MELI-Embed (basado en XLM-RoBERTa)
from transformers import AutoModel, AutoTokenizer

model = AutoModel.from_pretrained("mercado-libre/meli-embed-v1")
tokenizer = AutoTokenizer.from_pretrained("mercado-libre/meli-embed-v1")

# Procesamiento de consulta
consulta = "zapatillas running mujer amortiguación máxima"
inputs = tokenizer(consulta, return_tensors="pt")
outputs = model(**inputs)

# Embedding de 768 dimensiones
embedding = outputs.last_hidden_state.mean(dim=1).detach().numpy()

Innovaciones clave:

  • Entrenado con 1.4B de búsquedas reales de usuarios latinoamericanos
  • Vocabulario regional: Incluye modismos como "polera" (Chile), "remera" (Argentina), "playera" (México)
  • Triple loss function: Optimizado para relevancia, conversión y satisfacción
  • Dimensión óptima: 768 vs 512 de modelos genéricos

En pruebas ciegas, MELI-Embed superó a Google Universal Sentence Encoder en precisión para productos latinos en un 31%.

Arquitectura Híbrida: El Secreto de la Velocidad Latinoamericana

Implementar búsqueda vectorial en 18 países con 10,000 consultas/segundo requirió una solución innovadora:

Antigua Arquitectura

  • Elasticsearch para búsqueda por keywords
  • Redis para caching de resultados
  • Latencia promedio: 420ms
  • Precisión: 68% en consultas complejas

Nueva Arquitectura Vectorial

  • Pinecone para embeddings de productos
  • Weaviate para búsqueda semántica
  • Modelo de reranking cruzado personalizado
  • Latencia: 150ms (64% menos)
  • Precisión: 92% en consultas complejas

Flujo de consulta en tiempo real:

  1. Consulta convertida a embedding con MELI-Embed
  2. Búsqueda aproximada de vecinos (ANN) en Pinecone
  3. Reranking con modelo personalizado (producto+usuario+contexto)
  4. Fusión con resultados de búsqueda tradicional
  5. Respuesta en menos de 200ms

Resultados que Sorprendieron al Mundo: 28% Más Ventas

Tras implementar Semantic Search 2.0 en Q3 2023, los resultados fueron extraordinarios:

-40%

"Cero resultados"

+28%

Conversiones

+19

puntos NPS

Casos de éxito específicos:

  • Búsqueda: "audífonos cancelación ruido gym" → Mostró modelos resistentes al sudor
  • Búsqueda: "mueble para TV 55 OLED" → Priorizó soportes con peso >15kg
  • Búsqueda: "regalo niño 8 años programación" → Sugirió kits Arduino Junior

En el Black Friday 2023, el sistema manejó picos de 45,000 consultas/minuto con latencia promedio de 142ms.

Benchmark vs Google: Donde los Vectores Superan al Gigante

En pruebas independientes con 500 consultas complejas:

Métrica Google Shopping Mercado Libre (viejo) Mercado Libre (Semantic 2.0)
Precisión Top 3 78% 65% 94%
Relevancia Subjetiva 4.2/5 3.8/5 4.7/5
Tiempo Respuesta 380ms 420ms 150ms
Conversión 22% 18% 28%

Factor clave: Mientras Google usa un modelo genérico, MELI-Embed entiende especificidades latinas como "gaseosa" (refresco), "chompa" (abrigo), o "frigobar" (mininevera).

El Futuro: Búsqueda Multimodal y Personalización Extrema

Mercado Libre no se detiene. Su hoja de ruta incluye:

  • Búsqueda por imágenes: Sube una foto del producto que quieres
  • Embeddings multimodales: Unifica texto, imagen y audio en un solo espacio vectorial
  • Personalización contextual: Búsquedas que consideran tu historial, ubicación y preferencias
  • Asistentes conversacionales: "Encuéntrame un celular bueno, bonito y barato"

Próximos lanzamientos:

    
# Prototipo de búsqueda multimodal
from meli_search import MultiModalSearch

search_engine = MultiModalSearch(api_key="prod")
results = search_engine.query(
    text="zapatos formales",
    image="user_upload.jpg",  # De un evento reciente
    filters={"price_range": (50, 120), "brand": "premium"}
)

Conclusión: Cuando la Tecnología Local Supera a los Gigantes Globales

La victoria de Mercado Libre sobre Google en precisión de búsqueda nos enseña:

  • La especialización vence a la generalización: Un modelo local supera a uno global
  • Los vectores transforman la experiencia: De buscar palabras a entender necesidades
  • La baja latencia es crítica: La magia debe ser instantánea
  • Los datos locales son oro: 1.4B de consultas latinas fueron el diferencial

Semantic Search 2.0 no es sólo un éxito técnico - es un caso de estudio en cómo América Latina puede liderar innovación global. Con un aumento del 28% en conversiones y reducción del 40% en búsquedas fallidas, Mercado Libre ha demostrado que los vectores son el futuro del comercio electrónico.

La próxima vez que busques "polerón abrigado pero fashion" y encuentres exactamente lo que querías, recuerda: detrás hay 768 dimensiones de pura magia matemática latinoamericana.

Inicia sesión para dar like
¡Like agregado!
Share:

Comentarios

0
Mínimo 10 caracteres /

Sin comentarios

Sé el primero en compartir tu opinión.

También te puede interesar

Descubre más contenido relacionado que podría ser de tu interés

🐻‍❄️ Polars: la nueva estrella en el universo de los DataFrames
python
29 AGO., 2025
1 min de lectura

🐻‍❄️ Polars: la nueva estrella en el universo de los DataFrames

Polars emerge como una solución revolucionaria, diseñada desde cero para los desafíos de datos del siglo XXI

Bonnie image
José Elías Romero Guanipa
Autor
logo logo

©2024 ViveBTC