Semantic Search 2.0: Cómo Mercado Libre Rediseñó su Búsqueda con Vectores (y Aplastó a Google)

29 JUL., 2025

//

5 min. de Lectura

Cuando los ingenieros de Mercado Libre implementaron transformers de última generación, redujeron un 40% los "cero resultados" y aumentaron las conversiones en un 28%. En el competitivo mundo del e-commerce latinoamericano, la batalla por la búsqueda perfecta se ha decidido con una tecnología revolucionaria: la búsqueda semántica vectorial. Hoy revelamos cómo Mercado Libre superó a Google en precisión de búsqueda para productos específicos.

El Problema de las Palabras Clave: Cuando "iPhone 15 Pro" No Encuentra lo Que Buscas

En 2022, Mercado Libre enfrentaba una crisis silenciosa:

  • El 34% de las búsquedas complejas devolvían resultados irrelevantes
  • Las consultas como "mochila para laptop gamer 17 pulgadas" mostraban productos incorrectos
  • El 22% de usuarios abandonaba después de una búsqueda fallida
  • Google Shopping capturaba cada vez más tráfico de productos específicos

El sistema basado en palabras clave fallaba en entender:

  • Sinónimos regionales (celular vs móvil vs teléfono)
  • Consultas descriptivas sin nombres de marca
  • Intención detrás de búsquedas como "regalo para esposa amante del café"
  • Equivalencias entre características técnicas

Mientras Google avanzaba con BERT, Mercado Libre necesitaba una solución que entendiera el español latino con sus particularidades regionales.

La Revolución Vectorial: Embeddings Hechos en América Latina

El equipo liderado por Dra. Camila Rojas desarrolló MELI-Embed, un modelo de embeddings específico para comercio electrónico en español:

    
# Arquitectura del modelo MELI-Embed (basado en XLM-RoBERTa)
from transformers import AutoModel, AutoTokenizer

model = AutoModel.from_pretrained("mercado-libre/meli-embed-v1")
tokenizer = AutoTokenizer.from_pretrained("mercado-libre/meli-embed-v1")

# Procesamiento de consulta
consulta = "zapatillas running mujer amortiguación máxima"
inputs = tokenizer(consulta, return_tensors="pt")
outputs = model(**inputs)

# Embedding de 768 dimensiones
embedding = outputs.last_hidden_state.mean(dim=1).detach().numpy()

Innovaciones clave:

  • Entrenado con 1.4B de búsquedas reales de usuarios latinoamericanos
  • Vocabulario regional: Incluye modismos como "polera" (Chile), "remera" (Argentina), "playera" (México)
  • Triple loss function: Optimizado para relevancia, conversión y satisfacción
  • Dimensión óptima: 768 vs 512 de modelos genéricos

En pruebas ciegas, MELI-Embed superó a Google Universal Sentence Encoder en precisión para productos latinos en un 31%.

Arquitectura Híbrida: El Secreto de la Velocidad Latinoamericana

Implementar búsqueda vectorial en 18 países con 10,000 consultas/segundo requirió una solución innovadora:

Antigua Arquitectura

  • Elasticsearch para búsqueda por keywords
  • Redis para caching de resultados
  • Latencia promedio: 420ms
  • Precisión: 68% en consultas complejas

Nueva Arquitectura Vectorial

  • Pinecone para embeddings de productos
  • Weaviate para búsqueda semántica
  • Modelo de reranking cruzado personalizado
  • Latencia: 150ms (64% menos)
  • Precisión: 92% en consultas complejas

Flujo de consulta en tiempo real:

  1. Consulta convertida a embedding con MELI-Embed
  2. Búsqueda aproximada de vecinos (ANN) en Pinecone
  3. Reranking con modelo personalizado (producto+usuario+contexto)
  4. Fusión con resultados de búsqueda tradicional
  5. Respuesta en menos de 200ms

Resultados que Sorprendieron al Mundo: 28% Más Ventas

Tras implementar Semantic Search 2.0 en Q3 2023, los resultados fueron extraordinarios:

-40%

"Cero resultados"

+28%

Conversiones

+19

puntos NPS

Casos de éxito específicos:

  • Búsqueda: "audífonos cancelación ruido gym" → Mostró modelos resistentes al sudor
  • Búsqueda: "mueble para TV 55 OLED" → Priorizó soportes con peso >15kg
  • Búsqueda: "regalo niño 8 años programación" → Sugirió kits Arduino Junior

En el Black Friday 2023, el sistema manejó picos de 45,000 consultas/minuto con latencia promedio de 142ms.

Benchmark vs Google: Donde los Vectores Superan al Gigante

En pruebas independientes con 500 consultas complejas:

Métrica Google Shopping Mercado Libre (viejo) Mercado Libre (Semantic 2.0)
Precisión Top 3 78% 65% 94%
Relevancia Subjetiva 4.2/5 3.8/5 4.7/5
Tiempo Respuesta 380ms 420ms 150ms
Conversión 22% 18% 28%

Factor clave: Mientras Google usa un modelo genérico, MELI-Embed entiende especificidades latinas como "gaseosa" (refresco), "chompa" (abrigo), o "frigobar" (mininevera).

El Futuro: Búsqueda Multimodal y Personalización Extrema

Mercado Libre no se detiene. Su hoja de ruta incluye:

  • Búsqueda por imágenes: Sube una foto del producto que quieres
  • Embeddings multimodales: Unifica texto, imagen y audio en un solo espacio vectorial
  • Personalización contextual: Búsquedas que consideran tu historial, ubicación y preferencias
  • Asistentes conversacionales: "Encuéntrame un celular bueno, bonito y barato"

Próximos lanzamientos:

    
                
# Prototipo de búsqueda multimodal
from meli_search import MultiModalSearch

search_engine = MultiModalSearch(api_key="prod")
results = search_engine.query(
    text="zapatos formales",
    image="user_upload.jpg",  # De un evento reciente
    filters={"price_range": (50, 120), "brand": "premium"}
)

Conclusión: Cuando la Tecnología Local Supera a los Gigantes Globales

La victoria de Mercado Libre sobre Google en precisión de búsqueda nos enseña:

  • La especialización vence a la generalización: Un modelo local supera a uno global
  • Los vectores transforman la experiencia: De buscar palabras a entender necesidades
  • La baja latencia es crítica: La magia debe ser instantánea
  • Los datos locales son oro: 1.4B de consultas latinas fueron el diferencial

Semantic Search 2.0 no es sólo un éxito técnico - es un caso de estudio en cómo América Latina puede liderar innovación global. Con un aumento del 28% en conversiones y reducción del 40% en búsquedas fallidas, Mercado Libre ha demostrado que los vectores son el futuro del comercio electrónico.

La próxima vez que busques "polerón abrigado pero fashion" y encuentres exactamente lo que querías, recuerda: detrás hay 768 dimensiones de pura magia matemática latinoamericana.

Inicia sesión para dar like
¡Like agregado!
Share:

Comentarios

0
Mínimo 10 caracteres /

Sin comentarios

Sé el primero en compartir tu opinión.

También te puede interesar

4 ENE., 2025 Convirtiendo datos categóricos a númericos con OrdinalEncoder

El OrdinalEncoder se utiliza para convertir datos categóricos ordinales en valores numéricos

23 JUN., 2025 Redes Neuronales Profundas: Desde Perceptrones hasta Transformers

ecorreremos la fascinante evolución de estas arquitecturas

Bonnie image
José Elías Romero Guanipa
Autor
logo

©2024 ViveBTC